Size: a a a

Machine learning

2020 June 29

Ж

Женя in Machine learning
Tanya Koryaeva
У меня была ошибка в том, что я коэффициенты не в том порядке в ответ вынесла
Проверила, у меня ок
источник

YS

Yaroslav Samoilov in Machine learning
K-S
Ребят, вопрос. Надо будет проводить небольшой воркшоп по введению в нс. Начинать по традиции будем с полносвязных сеток. Хотелось бы сконцентрироваться на разных тех деталях. Пока в голове набросались стандартные пункты:
1) архитектура сети
2) базовые функции активации (сигмоида/тангенс/релу/лики релу) и сравнение их между собой. Мол, почему сигмоида хуже тангенса и почему оба они уже практически полностью заменены релу (на наглядных мат примерах сможем так увидеть проблему затухающего градиента)
3) разбор бэкпропа
4) регуляризация в сетях (L2, dropout neuron, dropout connection)
5) батч нормализация
6) кратенький обзор других оптимизаторов (Adam, rmsprop), но без математики особой. Просто общая суть и что такое моментум

Подскажите, какие ещё аспекты можно в полносвязных обсудить? Заранее спасибо
На мой взгляд, список довольно полный, если все эти темы раскрыть, будет годно. Особенно важным, как мне кажется, является внятное объяснение бэкпропа. Можно (и, пожалуй, нужно) еще обсудить лоссы, если уж очень хочется что-то добавить, можно рассказать про weight decay и transfer learning (вроде сама его идеология полносвязности не противоречит).  Ни разу не эксперт, но мнение человека, который заинтересовался этой темой недавно, тоже может быть полезно.
источник

D

Dmitry in Machine learning
оставлю для потомков: pred = pipe.predict(['new text'])
источник

RF

Rif F in Machine learning
/
источник

A

Arthur in Machine learning
K-S
Ребят, вопрос. Надо будет проводить небольшой воркшоп по введению в нс. Начинать по традиции будем с полносвязных сеток. Хотелось бы сконцентрироваться на разных тех деталях. Пока в голове набросались стандартные пункты:
1) архитектура сети
2) базовые функции активации (сигмоида/тангенс/релу/лики релу) и сравнение их между собой. Мол, почему сигмоида хуже тангенса и почему оба они уже практически полностью заменены релу (на наглядных мат примерах сможем так увидеть проблему затухающего градиента)
3) разбор бэкпропа
4) регуляризация в сетях (L2, dropout neuron, dropout connection)
5) батч нормализация
6) кратенький обзор других оптимизаторов (Adam, rmsprop), но без математики особой. Просто общая суть и что такое моментум

Подскажите, какие ещё аспекты можно в полносвязных обсудить? Заранее спасибо
я бы еще добавил начальную инициализацию весов.
источник

K

K-S in Machine learning
Arthur
я бы еще добавил начальную инициализацию весов.
Точно!!! Вот про это я забыл
источник

A

Arthur in Machine learning
K-S
Точно!!! Вот про это я забыл
если будет какой-то цифровой формат (видео/pdf лекция), то кидай, с радостью посмотрю/почитаю.
источник

K

K-S in Machine learning
Arthur
если будет какой-то цифровой формат (видео/pdf лекция), то кидай, с радостью посмотрю/почитаю.
С радостью бы, но язык, к сожалению, чешский :с
источник

A

Arthur in Machine learning
K-S
С радостью бы, но язык, к сожалению, чешский :с
ну так еще прикольнее. и смепшно, и шпозпшновательпшно.
источник

K

K-S in Machine learning
источник

y

yithian in Machine learning
А lgbm юзают с sklearn-подобным апи или с родным?
источник

A

Arthur in Machine learning
yithian
А lgbm юзают с sklearn-подобным апи или с родным?
раньше юзал с родным, потом sklearn обертка показалась удобнее.
источник

y

yithian in Machine learning
Да там что-то после последних обновлений ругается на незафиченную модель, если через склёрн.
источник

A

Arthur in Machine learning
какой-то разницы не заметил.
источник

A

Arthur in Machine learning
какая версия либы?
источник

y

yithian in Machine learning
Arthur
какая версия либы?
2.3.1 lgbm
источник

A

Arthur in Machine learning
yithian
2.3.1 lgbm
работает норм.
источник

y

yithian in Machine learning
А sklearn какой?
источник

A

Arthur in Machine learning
yithian
А sklearn какой?
0.22.1.
источник

y

yithian in Machine learning
Стариный.)
источник