Size: a a a

Machine learning

2021 January 12

АГ

Артём Глазунов... in Machine learning
Alexey
Кстати, Демешев очень интересно и задания отличные. Я до середины дошел,там R несложный (меня это раньше останавливало)
Демешев хорош, но это не машинное обучение, а просто предтечи, для углубленного понимания стат стороны линейных моделей, ну немного Байеса есть в конце, и ещё пара методов. По регуляризации у него крайне мало, скорее на пальцах. Мне очень понравился его курс, но он немного о другом.
источник

АГ

Артём Глазунов... in Machine learning
R прекрасен, кстати)
источник

DP

Dmitry Penzar in Machine learning
пока вы не вышли за пределы уже написанных пакетов
источник

K

K-S in Machine learning
Артём Глазунов
Демешев хорош, но это не машинное обучение, а просто предтечи, для углубленного понимания стат стороны линейных моделей, ну немного Байеса есть в конце, и ещё пара методов. По регуляризации у него крайне мало, скорее на пальцах. Мне очень понравился его курс, но он немного о другом.
так там нигде и не заявляется, что это мл.
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
пока вы не вышли за пределы уже написанных пакетов
Это да, всему свое место)
источник

DP

Dmitry Penzar in Machine learning
и желательно, пакетов tidyverse или на нее опирающихся
источник

DP

Dmitry Penzar in Machine learning
пример Julia показывает, что можно было сделать лучше, но статистики, делавшие R были уверены, что они самые умные)
источник

K

K-S in Machine learning
Артём Глазунов
Демешев хорош, но это не машинное обучение, а просто предтечи, для углубленного понимания стат стороны линейных моделей, ну немного Байеса есть в конце, и ещё пара методов. По регуляризации у него крайне мало, скорее на пальцах. Мне очень понравился его курс, но он немного о другом.
в специализации на курсере о регуляризации еще меньше)
источник

АГ

Артём Глазунов... in Machine learning
K-S
так там нигде и не заявляется, что это мл.
Это я для тех, кто курс выбирает, на всякий
источник

АГ

Артём Глазунов... in Machine learning
K-S
в специализации на курсере о регуляризации еще меньше)
Ну не меньше, но мало, согласен, как уже было сказано, на пальцах. А дальше человек сам будет копать, подразумевается так, думаю
источник

АГ

Артём Глазунов... in Machine learning
Может это и правильно?
источник

K

K-S in Machine learning
Артём Глазунов
Ну не меньше, но мало, согласен, как уже было сказано, на пальцах. А дальше человек сам будет копать, подразумевается так, думаю
ну вроде об дисперсии оценок в курсе вообще речи не шло. Просто "мултиколлинеарность - это не очень хорошо"
источник

АГ

Артём Глазунов... in Machine learning
K-S
ну вроде об дисперсии оценок в курсе вообще речи не шло. Просто "мултиколлинеарность - это не очень хорошо"
Ну там о ней говорили больше в практическом смысле, показывали параметры, давали поиграть, ещё в рекомендашках упоминалась.
источник

АГ

Артём Глазунов... in Machine learning
Как уже говорилось, Демешев раскрывает больше стат сторону, это бесспорно
источник

АГ

Артём Глазунов... in Machine learning
Alexey
Я правильно понимаю, что регуляризация нужна для уменьшения дисперсии оценок, поэтому большие значения регрессоров это плохо? но странно все равно - большие значения == высокая дисперсия?
Ну, кстати, на вопрос мы немного не ответили) Ведь на практике регуляризация используется для борьбы с переобучением. То есть грубо модель стремится запомнить обучающаю выборку, растит свои параметры. При этом при переходе к другой обучающей выборке оценки параметров будут уже другие (ну вот как раз дисперсия оценок) . На тесте качество будет не очень, потому что параметры подстроены именно под обучение. Вводя штраф, мы ей мешаем это сделать, усложняем ей работу, коэффициенты не так растут, в результате предсказания теста лучше. То есть мы как бы упрощаем модель. Для сетей популярна регуляризация дропаутом, мы сеть прореживаем, так её упрощаем, при этом делаем это каждый раз (грубо для каждого объекта обучения) случайно, то есть не даём набрать веса, подогнаться под обучение, при этом относительный масштаб весов выравнивается, нет очень больших или маленьких весов. То есть грубо, имея мало данных и много признаков можно подогнаться под обучение. И чем больше признаков, тем больше нужно данных, чтобы модель уловила в параметрах все тонкости каждого. Вводим штраф, ограничиваем веса и не даём каким-то параметрам "вылезать" по масштабу из общей массы (а вдруг признак шумовой? ) в результате обобщающая способность модели лучше, что выражается в результатах на разных тестах. Чёт много я написал, сорри))
источник

V

Vladislav-kun in Machine learning
Сорри за офтоп, не принимайте за рекламу)
Что это за курс такой? Отзывов нет, тут вроде никто не обсуждал. Новое что-то?

https://www.coursera.org/specializations/maths-for-data-analysis
Coursera
Математика для анализа данных
Offered by National Research University Higher School of Economics. За каждой стандартной моделью и конструкцией в Data Science стоит математика, благодаря которой эти модели функционируют. Если вы хотите работать с данными на серьезном уровне и понимать, как устроены методы машинного обучения, то знание математических основ вам просто необходимо.  В этой специализации мы изучим широкий спектр математических инструментов и рассмотрим некоторые их приложения к анализу данных. Будут рассмотрены такие важные разделы математики, как дискретная математика, линейная алгебра, математический анализ и теория вероятностей. Материалы курсов разработаны с учетом современного состояния Data Science и покрывают все темы, необходимые для для дальнейшего развития в данном направлении. Чтобы сделать обучение более практико-ориентированным, мы сопровождаем лекции примерами и задачами, возникающими при реальной работе с данными, и показываем, как решать подобные задачи с помощью Python.  Курсы рекомендуется проходить в том порядке…
источник

V

Vladislav-kun in Machine learning
От ВШЭ
источник

АГ

Артём Глазунов... in Machine learning
Vladislav-kun
От ВШЭ
Что немного смущает, написано начальный уровень... Хватит ли его ?
источник

A

Alexey in Machine learning
что-то новое видимо. И Демешев в преподах...
источник

V

Vladislav-kun in Machine learning
Артём Глазунов
Что немного смущает, написано начальный уровень... Хватит ли его ?
Ну, это я так понимаю если начинать с первого курса)
источник