Size: a a a

Machine learning

2020 November 20

K

K-S in Machine learning
igor
Корелированных? Давайте вспомним формулу дисперсию суммы
Собственно чтоб самому не расписывать вот https://habr.com/ru/company/ods/blog/324402/
источник

K

K-S in Machine learning
собственно поэтому случайный лес и работает лучше отдельных случайных деревьев. Хотя деревья и являются между собой скоррелированными
источник

i

igor in Machine learning
Случайный лес? Речь о случайном сиде. Случайный сид это не случайный лес
источник

K

K-S in Machine learning
так здесь суть та же. Только усредняем не скоррелированные деревья, а скоррелированные нейросетки, допустим
источник

i

igor in Machine learning
Нет не та же
источник

K

K-S in Machine learning
и в чем различие же?)
источник

i

igor in Machine learning
Усредеям и получаем большую дисперсию. Вот в этом разница
источник

K

K-S in Machine learning
... перечитайте про bias variance tradeoff выше тогда
источник

K

K-S in Machine learning
представьте, что это случайный лес из нейросеток
источник

K

K-S in Machine learning
базовый алгоритм сути не меняет
источник

I

Ibp in Machine learning
такое впечатление что вы о разных дисперсиях тут беседуете Ж)
источник

SS

Sergey Salnikov in Machine learning
каждый скор обсчета на каком-то сиде - это случайная величина, как показывает практика - примерно нормально распределённая, поэтому после n запусков получаем выборочную дисперсию в  n раз меньше
источник

K

K-S in Machine learning
по факту, конечно, не в n раз, поскольку сетки скоррелированные между собой получаются. Но все равно дисперсия уменьшается
источник

I

Ibp in Machine learning
высокая дисперсия - это другими словами - переобучение, а высокое смещение - получается - недообучение
источник

K

K-S in Machine learning
обычно, конечно, алгоритмы, обученные на разных сидах, получаются чересчур скоррелированными. Поэтому ясное дело их усреднение никакого профита не приносит (но и не ухудшает качество, ясное дело). Но в данной сореве, сетки, по всей видимости, попадают в достаточно разные локальные минимумы при разной инициализации -- поэтому тут это и работает
источник

SS

Sergey Salnikov in Machine learning
на логреге не пробовал усреднять по сидам?
источник

I

Ibp in Machine learning
получается если добавляете в модель случайность вызванную чем то : данными или каким то вероятностным способом влияющим на алгоритм, что делает сид, то вы уменьшаете переобучение, то есть уменьшаете дисперсию, вроде так
источник

K

K-S in Machine learning
Sergey Salnikov
на логреге не пробовал усреднять по сидам?
нет, но там это не должно особо работать. У линейных моделек самих по себе дисперсия небольшая
источник

SS

Sergey Salnikov in Machine learning
а, ну да, и биас большой, tradeof
источник

K

K-S in Machine learning
угу
источник