Size: a a a

Machine learning

2021 January 13

K

K-S in Machine learning
Dmitry Penzar
очень сильно зависит от svm
Что именно зависит?
источник

DP

Dmitry Penzar in Machine learning
интерпретируемость
источник

DP

Dmitry Penzar in Machine learning
в общем говорить, что svm неинтерпретируема прям - не совсем корректно
источник

DP

Dmitry Penzar in Machine learning
для биологических последовательностей есть пара очень хорошо интерпретируемых моделеей
источник

K

K-S in Machine learning
А, кстати, у кого-нибудь был опыт использования SVM с каким-то кастомным ядром (кроме linear, rbf и polynomial в общем)? И если да, то как именно пришли к этому?
источник

АГ

Артём Глазунов... in Machine learning
K-S
Ещё веса нормируют вроде тоже
Хм, интересно. Но если это для ограничения величины выхода линейной части перед подачей в активацию, то батч норм , по идее, все и так ограничит и приведет к нужному распределению..
источник

K

K-S in Machine learning
Артём Глазунов
Хм, интересно. Но если это для ограничения величины выхода линейной части перед подачей в активацию, то батч норм , по идее, все и так ограничит и приведет к нужному распределению..
Тут мне сложно говорить о математической подоплеке, честно говоря. Скорее всего цель у этого иная. Во всяком случае не раз видел сочетание и батчнорм, и нормализации весов. Но лучше детальнее изучить, конечно
источник

АГ

Артём Глазунов... in Machine learning
K-S
Тут мне сложно говорить о математической подоплеке, честно говоря. Скорее всего цель у этого иная. Во всяком случае не раз видел сочетание и батчнорм, и нормализации весов. Но лучше детальнее изучить, конечно
Хорошо, спасибо
источник

AO

Alex Ololo in Machine learning
вот еще) про размытие признаков через гауссиан кренел
источник

AO

Alex Ololo in Machine learning
источник

AO

Alex Ololo in Machine learning
я не вникал пока особо) ток нактнулся недавно
источник

DP

Dmitry Penzar in Machine learning
K-S
Тут мне сложно говорить о математической подоплеке, честно говоря. Скорее всего цель у этого иная. Во всяком случае не раз видел сочетание и батчнорм, и нормализации весов. Но лучше детальнее изучить, конечно
я смотрел в свое время, может и лучше дать, и хуже. Но так как идея подходов одна, особого  смысла комбинировать вроде нет.
источник

K

K-S in Machine learning
K-S
Тут мне сложно говорить о математической подоплеке, честно говоря. Скорее всего цель у этого иная. Во всяком случае не раз видел сочетание и батчнорм, и нормализации весов. Но лучше детальнее изучить, конечно
По идее в некоторой степени нормализация весов нужна в RNN для проблемы взрывающегося градиента. Там же у нас во всех юнитах одна и та же матрица W. Поэтому если она по норме больше единицы, то при бэкпропе градиенты будут в бесконечность уходить. Но на практике там это лечат обычным клиппом зачастую. В полносвязных же эта проблема не так явна
источник

АГ

Артём Глазунов... in Machine learning
По идее после обучения оптимальный фильтр и так получается, после первого слоя уже все норм в этом плане. Ну тут надо почитать, интересно)
источник

AO

Alex Ololo in Machine learning
Артём Глазунов
По идее после обучения оптимальный фильтр и так получается, после первого слоя уже все норм в этом плане. Ну тут надо почитать, интересно)
ну типа так быстрее, птмч шума меньше
источник

AF

Aleksey Firstov in Machine learning
Кто нибудь в aicrowd участвует)
источник

AF

Aleksey Firstov in Machine learning
?
источник

K

K-S in Machine learning
Aleksey Firstov
Кто нибудь в aicrowd участвует)
По страховкам?
источник

AF

Aleksey Firstov in Machine learning
Ага
источник

K

K-S in Machine learning
А что там? Регрессия + decision making какой-то? Чем-то Jane market сейчас на каггле напоминает
источник