Size: a a a

Machine learning

2020 November 20

K

K-S in Machine learning
Давайте даже возьмём крайнюю ситуацию: пусть у нас идеальная строгая положительная корреляция между сетями (иначе говоря их прогнозы просто одинаковы). Как же тогда их усреднение может ухудшить качество прогноза?)
источник

K

K-S in Machine learning
какой-то биморф 2.0 прямо)
источник

IK

Ivan Krokhalyov in Machine learning
K-S
Так вы разницу между случайным лесом и усреднением сетей на разных сидах сможете пояснить?))
Ну, разница есть. В случайном лесе мы подаем разные подмножества признаков в деревья, а в усреднении сетей будем учить каждую сеть на одинаковых признаках
источник

K

K-S in Machine learning
это разница в методах достижения одной и той же цели -- декорреляции прогнозов базовых алгоритмов для увеличения эффекта уменьшения дисперсии от усреднения. В лесу этого добиваются бэггингом, построения расщепления на подмножествах признаков и тд, а в сетях -- на разной случайной инициализации весов, но сути это не меняет
источник

K

K-S in Machine learning
просто обычно -- изменение сида слишком слабо влияет на прогнозы сеток, они получаются сильно похожими друг на друга и потому эффекта от их усреднения немного. Но так происходит не всегда. Вот и задачка про лекарства тому явный пример
источник

D

Danis in Machine learning
Всем привет. Кто сталкивался с gaussian mixture  в кластеризации? Вопрос в следующем, на двумерном массиве данных каждый запуск выдает разные результаты кластеризации при одних и тех же параметрах. Почему так происходит и можно ли это победить?
источник

K

K-S in Machine learning
Danis
Всем привет. Кто сталкивался с gaussian mixture  в кластеризации? Вопрос в следующем, на двумерном массиве данных каждый запуск выдает разные результаты кластеризации при одних и тех же параметрах. Почему так происходит и можно ли это победить?
потому что алгоритм случайный -- в начале средние и матрица ковариаций инициализируются случайно. Укажите random_state для воспроизводимости результатов
источник

D

Danis in Machine learning
K-S
потому что алгоритм случайный -- в начале средние и матрица ковариаций инициализируются случайно. Укажите random_state для воспроизводимости результатов
Спасибо
источник

SS

Sergey Salnikov in Machine learning
с сетками работал мало, но подозреваю, что от сида они зависят значительно, например - часто делают аггрессивный dropout > 0.2
источник

I

Ibp in Machine learning
не ну все верно, так делают с сетками: можно даже без всяких сидов - обучить 20 моделей - на 200 эпохах например. у всех у них будет разная точность предсказания, и обобщить результат.
источник

В

Виталий in Machine learning
Господа знатоки, подскажите в чем проблема, метод одинаковый, данные одинаковые, а результаты другие
источник

В

Виталий in Machine learning
источник

SS

Sergey Salnikov in Machine learning
возможно, потому что int массивы, а не float
источник

AI

Andrey Ivanov in Machine learning
Сравни явно массивы перед функцией
источник

AI

Andrey Ivanov in Machine learning
Мне не верится что они равны
источник

SS

Sergey Salnikov in Machine learning
один массив - float, другой - int
источник

М

Михаил Яковлев... in Machine learning
источник

MN

Maxim Neronov in Machine learning
Sergey Salnikov
один массив - float, другой - int
А почему это должно было дать разные значения в статистике? 3 питон равенство между 1 и 1.0 подтверждает, а итоговое значение всё равно к float приводится
источник

MN

Maxim Neronov in Machine learning
не обобщаю, но мне кажется дело не в разнице типов
источник

i

igor in Machine learning
запустите в дебагере и посмотрите
источник