Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2020 June 25

DH

Dmytro Hrebeniuk in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

DH

Dmytro Hrebeniuk in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
только я kernel_size=3 сделал
источник

СВ

Сергей Васильев... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
благодарю)
источник

СВ

Сергей Васильев... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
model.compile() обязательно нужна?
источник

DH

Dmytro Hrebeniuk in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
У меня так заработало, я точно не уверен, но скорее всего compile нужено что бы завести "оптимизатор", что бы он мог исполользовать loss-функцию.
источник

О

Олег in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Привет. Есть категорийный столбец с n значениями. Есть ли разница делать из него n столбцов со значениями 0/1 или один столбец с n значениями?
И если разница есть, то в чем.
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Одна из разниц, один столбец с n значениями неявно задает отношения между категориями. Если A = 4, а B = 5, то можно прийти к выводу, что A < B, хотя в реальности может быть не так.
источник

D•

Dan • Captain in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@ssilverain давай ещё разок :) у нас бот злой
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
😅
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Привет ребят 🙂
Только-только нашёл чат, если вопрос не по теме - сори)

В общем,

— запилил LSTM.
— запустил тест на 200 шагов, 1 эпоха (датасет огромный, по этому пока 200 шагов, чтобы посмотреть, как себя ведёт)
— Всё начинается нормально, loss опускается к 0, но где-то к 70-му шагу начинает взрываться, и под конец доходит до +100500.
— При этом в конце эпохи val_loss = 0.46.

Может кто сталкивался с таким? Как это оценивать/где искать ошибки?

*test_dataset = нижние 10% от train_dataset
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

DD

Dima Dzundza in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Michael Kirovych
Привет ребят 🙂
Только-только нашёл чат, если вопрос не по теме - сори)

В общем,

— запилил LSTM.
— запустил тест на 200 шагов, 1 эпоха (датасет огромный, по этому пока 200 шагов, чтобы посмотреть, как себя ведёт)
— Всё начинается нормально, loss опускается к 0, но где-то к 70-му шагу начинает взрываться, и под конец доходит до +100500.
— При этом в конце эпохи val_loss = 0.46.

Может кто сталкивался с таким? Как это оценивать/где искать ошибки?

*test_dataset = нижние 10% от train_dataset
exploding gradients?
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
да, но почему при этом val_loss = 0.46
источник

A

Anton in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Michael Kirovych
да, но почему при этом val_loss = 0.46
Возможно потому что научилась. Данные правильно разделил на train_split?
источник

АК

Анатолий Кот... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Dima Dzundza
exploding gradients?
Это Lstm, он вроде как должен решать проблему с взрывающимся\исчезающим градиентом
источник

A

Anton in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Попробуй новые-новые данные ей подсунуть. Что predict выдаст
источник

DD

Dima Dzundza in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Может у тебя разного размера тренировочные и проверочные данные.
И ты не нормализируешь по длине предложения?
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Anton
Возможно потому что научилась. Данные правильно разделил на train_split?
Да, с этим всё ок
источник

MK

Michael Kirovych in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Dima Dzundza
Может у тебя разного размера тренировочные и проверочные данные.
И ты не нормализируешь по длине предложения?
это тоже проверил, ndim и длина векторов одинаковые. Распечатал и в ручную проверил - с данными всё, нормализация правильная
источник

DD

Dima Dzundza in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Michael Kirovych
это тоже проверил, ndim и длина векторов одинаковые. Распечатал и в ручную проверил - с данными всё, нормализация правильная
У меня такое с конвами было, когда где-то неправильно расставил слои
источник