Size: a a a

Machine learning

2020 November 25

i

igor in Machine learning
Где написано Сорр плохо работает с мультиколлинеарностью
источник

K

K-S in Machine learning
Ibp
по-моему там только для линейной и логистической регрессии нужно удалять коррелирующие признаки, остальные как то живут с этим
С наивным байесом будет все очень плохо ещё. Поскольку он как раз и строится из «наивного» предположения о независимости признаков
источник

i

igor in Machine learning
Наивный баес норм
источник

K

K-S in Machine learning
Норм в каком плане?)
источник

i

igor in Machine learning
Не требует ликвидировать мультиколинерности
источник

K

K-S in Machine learning
Если она сильная, то надо.
источник

K

K-S in Machine learning
Попробуйте вот тут его построить https://www.kaggle.com/c/lish-moa
источник

I

Ibp in Machine learning
K-S
С наивным байесом будет все очень плохо ещё. Поскольку он как раз и строится из «наивного» предположения о независимости признаков
не пишут об этом, только нормальность распределения нада
источник

SS

Sergey Salnikov in Machine learning
хорошая табличка
источник

I

Ibp in Machine learning
Sergey Salnikov
хорошая табличка
+++
источник

K

K-S in Machine learning
Ibp
не пишут об этом, только нормальность распределения нада
В его основе лежит предположение о независимости признаков. А вы саму эту  идею нарушаете. Попробуйте его поиспользовать в задачке с коллинеарными признаками
источник

I

Ibp in Machine learning
K-S
В его основе лежит предположение о независимости признаков. А вы саму эту  идею нарушаете. Попробуйте его поиспользовать в задачке с коллинеарными признаками
надо будет потом поэксперементировать
источник

DP

Dmitry Penzar in Machine learning
ну говорят, он к этом достаточно устойчив, но говорить, что ему норм коррелирующие признаки - да, странно.
источник

SS

Sergey Salnikov in Machine learning
ну кабэ да, ниав баес предполагает независимость признаков
источник

i

igor in Machine learning
K-S
В его основе лежит предположение о независимости признаков. А вы саму эту  идею нарушаете. Попробуйте его поиспользовать в задачке с коллинеарными признаками
Многие пробовали , обычно работает отлично
источник

SS

Sergey Salnikov in Machine learning
у меня не заходило ниразу
источник

i

igor in Machine learning
НБ работает часто хорошо даже когда его  предположения не выполняются, а они всегда не выполняются почти
источник

i

igor in Machine learning
Sergey Salnikov
у меня не заходило ниразу
самый простой пример НЛП анализ смс на спам не спам
источник

K

K-S in Machine learning
igor
НБ работает часто хорошо даже когда его  предположения не выполняются, а они всегда не выполняются почти
Угу. Видимо, вопрос в том, насколько сильно нарушаются эти предположения. Например, в вышеприведенной задаче нб прогнозирует на коррелирующих признаков значительно хуже константы
источник

SS

Sergey Salnikov in Machine learning
я пробовал на другой нлп - классификация днк-последовательностей, нб был плох, зашла двухслойная нейронка полсе tfidf-pca
источник