Size: a a a

Machine learning

2021 January 12

K

K-S in Machine learning
отличный курс, да
источник

K

K-S in Machine learning
K-S
отличный курс, да
только я тут при чем? 😂
источник

DP

Dmitry Penzar in Machine learning
промахнулся
источник

DP

Dmitry Penzar in Machine learning
Alexey
ага, меня заинтересовало - почему большие.. и что такое большие..
источник

АГ

Артём Глазунов... in Machine learning
Тут он объясняет в матрично виде, борьба с вырожденностью матрицы, т.е. грубо более устойчивое решение
источник

A

Alexey in Machine learning
K-S
отличный курс, да
я его посмотрел и тоже не понял, почему коэфф растут. тут - https://www.coursera.org/learn/ekonometrika/lecture/1dtYm/4-1-3-ridzh-i-lasso-rieghriessiia - он начинает с того, что коэфф большие и давайте штрафовать за "слишком большие - далекие от нуля"
источник

АГ

Артём Глазунов... in Machine learning
Ещё раз)
источник

DP

Dmitry Penzar in Machine learning
Артём Глазунов
Ещё раз)
переправил
источник

DP

Dmitry Penzar in Machine learning
это я полез смотреть вашу ссылку
источник

DP

Dmitry Penzar in Machine learning
ну там все сказано, да
источник

АГ

Артём Глазунов... in Machine learning
Alexey
я его посмотрел и тоже не понял, почему коэфф растут. тут - https://www.coursera.org/learn/ekonometrika/lecture/1dtYm/4-1-3-ridzh-i-lasso-rieghriessiia - он начинает с того, что коэфф большие и давайте штрафовать за "слишком большие - далекие от нуля"
Тут смысл не в росте коэффициентов, а в неустойчивом решении с большой дисперсией, КОТОРОЕ МОЖЕТ вызывать большие по модулю значения. Посмотрите лекцию Соколова, там через матрицы понятно вполне
источник

K

K-S in Machine learning
Alexey
я его посмотрел и тоже не понял, почему коэфф растут. тут - https://www.coursera.org/learn/ekonometrika/lecture/1dtYm/4-1-3-ridzh-i-lasso-rieghriessiia - он начинает с того, что коэфф большие и давайте штрафовать за "слишком большие - далекие от нуля"
так он по сути и предлагает бороться с последствиями мультиколлинеарности (большой дисперсией оценок). А давайте-ка мы прижмем наши оценки поближе к нулю - так и заборем в какой-то мере
источник

АГ

Артём Глазунов... in Machine learning
На пальцах вроде с симптомом боремся, а вот через матрицы видно, что в реальности боремся именно с тем, чем надо
источник

i

igor in Machine learning
Артём Глазунов
На пальцах вроде с симптомом боремся, а вот через матрицы видно, что в реальности боремся именно с тем, чем надо
это снижает VC размерность и получается лучше. А чтобы побороть мультиколинеарност достаточно отбелить данные и ее просто не будет.
источник

DP

Dmitry Penzar in Machine learning
регуляризация помогает не переобучаться, ибо большие веса обычно - признак переобучения.
Что она убирает мультиколлинеарность, кажется все же побочный вин.
источник

DP

Dmitry Penzar in Machine learning
Но надо поглядеть. Но слова автора про то, что коллинеарность приводит к бОльшим значениям коэффициентов - спорные
источник

DP

Dmitry Penzar in Machine learning
igor
это снижает VC размерность и получается лучше. А чтобы побороть мультиколинеарност достаточно отбелить данные и ее просто не будет.
если придираться, что эффективную VC-размерность. Обычную она не трогает
источник

A

Alexey in Machine learning
ибо большие веса обычно - признак переобучения: возникает тот же вопрос - почему? и что такое большие...
источник

SS

Sergey Salnikov in Machine learning
коллинеарность приводит к неустойчивым решениям, что может вылиться к большим коэфам
источник

АГ

Артём Глазунов... in Machine learning
Alexey
ибо большие веса обычно - признак переобучения: возникает тот же вопрос - почему? и что такое большие...
Это чтобы на пальцах объяснить, почему штраф вводим на них просто.
источник