Size: a a a

Machine learning

2021 January 13

i

igor in Machine learning
это и курс и учебник очень интересными задачами на практику, и слайды там есть.
источник

PK

Pavel Kozlov in Machine learning
На курсере курс math for ml как мне кажется не плохой.
источник

NO

Nikolai Orlov in Machine learning
Друзья, кто-нибудь знает, можно ли на курсере сначала пройти курс слушателем, потом отписаться, податься на матпомощь и получить полноценный сертификат? Или матпомощь доступна только для курсов, куда никогда не записывался?
источник

RN

Roman Nm in Machine learning
Nikolai Orlov
Друзья, кто-нибудь знает, можно ли на курсере сначала пройти курс слушателем, потом отписаться, податься на матпомощь и получить полноценный сертификат? Или матпомощь доступна только для курсов, куда никогда не записывался?
А зачем проходить слушателем?
источник

NO

Nikolai Orlov in Machine learning
Roman Nm
А зачем проходить слушателем?
Так получилось, что большую часть прошел слушателем, теперь все-таки хочу получить сертификат.
источник

NO

Nikolai Orlov in Machine learning
Речь не о курсе специализации, вопрос в принципе по курсере. Может кто уже сталкивался с такой ситуацией.
источник

RN

Roman Nm in Machine learning
Nikolai Orlov
Речь не о курсе специализации, вопрос в принципе по курсере. Может кто уже сталкивался с такой ситуацией.
Ну я бы посоветовал пройти до конца и попробовать самому :) Вы же ничего не теряете при этом
источник

ма

малефікарка мене пор... in Machine learning
Nikolai Orlov
Друзья, кто-нибудь знает, можно ли на курсере сначала пройти курс слушателем, потом отписаться, податься на матпомощь и получить полноценный сертификат? Или матпомощь доступна только для курсов, куда никогда не записывался?
можно даже не отписываться
источник

DP

Dmitry Penzar in Machine learning
Артём Глазунов
Ну, кстати, на вопрос мы немного не ответили) Ведь на практике регуляризация используется для борьбы с переобучением. То есть грубо модель стремится запомнить обучающаю выборку, растит свои параметры. При этом при переходе к другой обучающей выборке оценки параметров будут уже другие (ну вот как раз дисперсия оценок) . На тесте качество будет не очень, потому что параметры подстроены именно под обучение. Вводя штраф, мы ей мешаем это сделать, усложняем ей работу, коэффициенты не так растут, в результате предсказания теста лучше. То есть мы как бы упрощаем модель. Для сетей популярна регуляризация дропаутом, мы сеть прореживаем, так её упрощаем, при этом делаем это каждый раз (грубо для каждого объекта обучения) случайно, то есть не даём набрать веса, подогнаться под обучение, при этом относительный масштаб весов выравнивается, нет очень больших или маленьких весов. То есть грубо, имея мало данных и много признаков можно подогнаться под обучение. И чем больше признаков, тем больше нужно данных, чтобы модель уловила в параметрах все тонкости каждого. Вводим штраф, ограничиваем веса и не даём каким-то параметрам "вылезать" по масштабу из общей массы (а вдруг признак шумовой? ) в результате обобщающая способность модели лучше, что выражается в результатах на разных тестах. Чёт много я написал, сорри))
это написали, просто в две строки. Вопрос был, почему именно мультиколлинеарность этим побарывается. И ответ тоже был неявно, быть может - мы вносим bias в оценки коэффициентов, но за счет этого у нас дисперсия оценок становится меньше. То есть ответ - она не побарывается, просто мы получаем чуть более трактабельные коэффициенты, а в некоторых случаях получаем в принципе возможность хоть какое-то решение получить
источник

DP

Dmitry Penzar in Machine learning
igor
это и курс и учебник очень интересными задачами на практику, и слайды там есть.
Convex Optimization?
источник

AR

Anton Rogozin in Machine learning
Переслано от Алексей Шадриков...
Всем привет.
IT Академия Samsung продолжает цикл AI Innovation Campus и сегодня в 14 часов по Москве пройдет трансляция второй лекции "Ускорение вычислений в нейронных сетях: Эффективные алгоритмы умножения матриц и свертки, оптимизация графов вычислений, квантизация нейронных сетей" от исследователя ИСП РАН Константина Архипенко https://youtu.be/63kjWmBhlSA
Ждем всех, у вас будет возможность задать вопрос лектору в чате.
источник

A

Alex in Machine learning
Anton Rogozin
Переслано от Алексей Шадриков
Всем привет.
IT Академия Samsung продолжает цикл AI Innovation Campus и сегодня в 14 часов по Москве пройдет трансляция второй лекции "Ускорение вычислений в нейронных сетях: Эффективные алгоритмы умножения матриц и свертки, оптимизация графов вычислений, квантизация нейронных сетей" от исследователя ИСП РАН Константина Архипенко https://youtu.be/63kjWmBhlSA
Ждем всех, у вас будет возможность задать вопрос лектору в чате.
Интересно, спасибо)
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
это написали, просто в две строки. Вопрос был, почему именно мультиколлинеарность этим побарывается. И ответ тоже был неявно, быть может - мы вносим bias в оценки коэффициентов, но за счет этого у нас дисперсия оценок становится меньше. То есть ответ - она не побарывается, просто мы получаем чуть более трактабельные коэффициенты, а в некоторых случаях получаем в принципе возможность хоть какое-то решение получить
Про мультиколлинеарность все обсудили, но но сам рост оценок параметров интуитивно остался за бортом, как мне показалось. А тут я попытался на пальцах еще интуицию про рост показать, и почему штраф расти не даёт, ну и тему про переобучение и упрощение модели затронул, которая была затронута в посте по VC размерность, в принципе. Такой саммери) Ну насколько получилось, конечно)
источник

i

igor in Machine learning
Dmitry Penzar
Convex Optimization?
Linear algebra
источник

i

igor in Machine learning
Опять же мультиколинеаррость борется отбеливанием данных за раз
источник

АГ

Артём Глазунов... in Machine learning
igor
Опять же мультиколинеаррость борется отбеливанием данных за раз
Что подразумевается под отбеливанием? Удаление признаков с большим vif?
источник

i

igor in Machine learning
Нет data whitening
источник

i

igor in Machine learning
Умножаем матрицу данных на некую матрицу и получаем некоррелированные данные
источник

K

K-S in Machine learning
Типа PCA? Но тогда в интерпретации экономической теряем
источник

AO

Alex Ololo in Machine learning
Артём Глазунов
Что подразумевается под отбеливанием? Удаление признаков с большим vif?
источник