Size: a a a

Machine learning

2021 January 13

DP

Dmitry Penzar in Machine learning
как с нейронками
источник

DP

Dmitry Penzar in Machine learning
или с линрегрессией, которую используют именно чтобы получить легко трактуемые коэффициенты
источник

i

igor in Machine learning
Да вопрос что важнее
источник

i

igor in Machine learning
Interpretability or flexibility
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
или с линрегрессией, которую используют именно чтобы получить легко трактуемые коэффициенты
Ну тогда только простая селекция по R2, порог 0.9-0.95,и всё. А с бустингами и нейронками, которые на таблицы ориентированы, вопрос. Тут все перечисленные методы должны сгодиться, но тут лишь для уменьшения размерности признакового пространства и скорости работы модели. Вопрос, что быстрее. Но в качестве на тесте такая селекция не особо мне помогала, даже наоборот, ведь немного информации все же теряется, не строгая же мультиколлинеарность..
источник

K

K-S in Machine learning
Dmitry Penzar
или с линрегрессией, которую используют именно чтобы получить легко трактуемые коэффициенты
Ну не всегда ее именно для интерпретации используют. Иногда данных настолько мало, что деревяшки и сети становятся почти недоступными. И конкурентами лин моделей могут быть такие же простые модельки по типу svm
источник

DP

Dmitry Penzar in Machine learning
K-S
Ну не всегда ее именно для интерпретации используют. Иногда данных настолько мало, что деревяшки и сети становятся почти недоступными. И конкурентами лин моделей могут быть такие же простые модельки по типу svm
да, согласен. Есть кейсы.
источник

i

igor in Machine learning
Svm не такая же простая модель как линейная регрессия
источник

АГ

Артём Глазунов... in Machine learning
Ну да, штука полезная для скорости сходимости град спуска в сетях. На практике, как я понимаю, ограничиваются лишь процедурой стандартизации инпута, ну и батч нормализацией в скрытых слоях глубоких сетей. Ну из того, что я видел и пробовал, конечно.
источник

K

K-S in Machine learning
igor
Svm не такая же простая модель как линейная регрессия
Что понимаем под простотой? Я имел в виду сложность разделяющей гиперплоскости. Если не учитывать Kernel trick, то в svm — она линейна, поэтому и назвал простой.
источник

K

K-S in Machine learning
Артём Глазунов
Ну да, штука полезная для скорости сходимости град спуска в сетях. На практике, как я понимаю, ограничиваются лишь процедурой стандартизации инпута, ну и батч нормализацией в скрытых слоях глубоких сетей. Ну из того, что я видел и пробовал, конечно.
Ещё веса нормируют вроде тоже
источник

i

igor in Machine learning
источник

i

igor in Machine learning
SVM сложная по отношению к ЛР
источник

i

igor in Machine learning
разные углы
источник

K

K-S in Machine learning
Тут очевидно учитывается kernel trick.
источник

K

K-S in Machine learning
Но так-то я и в лин модели могу добавить всякие полиномы высоких порядков, перейти в спрямляющее пространство, и тогда лин модель тоже сможет восстанавливать не линейные зависимости до какой-то меры
источник

K

K-S in Machine learning
Ну и картинка до какой-то меры спорная. Считать свм - неинтерпретируемой моделью странно. Как минимум мы узнаем объекты (опорные векторы), по которым проходит по сути разделение классов. Вполне себе тоже в некотором роде интерпретация
источник

i

igor in Machine learning
помне не спорная.
источник

DP

Dmitry Penzar in Machine learning
очень сильно зависит от svm
источник

DP

Dmitry Penzar in Machine learning
и ядра
источник