Size: a a a

Machine learning

2021 January 05

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
Представьте, что учите вы SVM. Она использует очень малую долю выборки для построения решения. У вас тогда почти любая SVM будет учить одни и те же веса.
Данных должно быть достаточно, тут согласен, потому что в худшем случае каждый раз на 1/8 где-то обучение будет. Да и проверять экспериментом независимость надо, как я уже сказал, интуиция не особо помогает тут...
источник

K

K-S in Machine learning
Dmitry Penzar
Да причем здесь iid наблюдений.. не про него разговор же
Почему же? Вроде бы именно с iid скоров и начался разговор о некорректности применения т-теста и прочих для оценки качества
источник

DP

Dmitry Penzar in Machine learning
K-S
Почему же? Вроде бы именно с iid скоров и начался разговор о некорректности применения т-теста и прочих для оценки качества
он начался с iid скоров, а не наблюдений
источник

DP

Dmitry Penzar in Machine learning
что даже при условии iid наблюдений процедура kfold дает зависимые скора
источник

K

K-S in Machine learning
Dmitry Penzar
он начался с iid скоров, а не наблюдений
ну так я и имел в виду скоры под наблюдениями)
источник

DP

Dmitry Penzar in Machine learning
Артём Глазунов
Данных должно быть достаточно, тут согласен, потому что в худшем случае каждый раз на 1/8 где-то обучение будет. Да и проверять экспериментом независимость надо, как я уже сказал, интуиция не особо помогает тут...
проблема не в достаточности, а  в том, что SVM по природе использует только небольшую их часть
источник

K

K-S in Machine learning
ведь для т-теста и прочих скоры -- это и есть "наблюдения")
источник

DP

Dmitry Penzar in Machine learning
да, понял, спасибо)
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
проблема не в достаточности, а  в том, что SVM по природе использует только небольшую их часть
Как опорные векторы, имеете в виду?
источник

DP

Dmitry Penzar in Machine learning
да
источник

АГ

Артём Глазунов... in Machine learning
Тут проблема для очень малых выборок, но для разных и достаточно больших подвыборок, где объекты перемешаны по-разному, не совсем понятно в чем разница. Тогда SVM не работала бы на кросс валидации... Или я не совсем вас понял
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
Ну полученные модели энивей не будут независимыми
Кстати, тут их независимость не очень нужна, они же дают скоры на разных тестах, которые ближе к независимости должны быть. От моделей требуется быть слабо зависимыми и разными, чтобы  моделировать общее поведение выбранного класса моделей.
источник

I

Ibp in Machine learning
Да все это, все эти тесты, это на самом деле вопрос творчества и внутреннего чутья, ибо не существует генерального плана или фреймворка, как лучше выбрать лучший алгоритм используя статистические методы: результат лишь показывает насколько вероятно данные выборки могут наблюдаться если гипотеза верна (нулевая), а не насколько гипотеза верна на данной выборке. Так что всегда существует вероятность, иногда близкая к нулевой, что на реальных данных, "лучший алгоритм" покажет не лучший результат.
источник

АГ

Артём Глазунов... in Machine learning
Ibp
Да все это, все эти тесты, это на самом деле вопрос творчества и внутреннего чутья, ибо не существует генерального плана или фреймворка, как лучше выбрать лучший алгоритм используя статистические методы: результат лишь показывает насколько вероятно данные выборки могут наблюдаться если гипотеза верна (нулевая), а не насколько гипотеза верна на данной выборке. Так что всегда существует вероятность, иногда близкая к нулевой, что на реальных данных, "лучший алгоритм" покажет не лучший результат.
Но неплохо было бы ознакомиться с эмпирическими результатами сначала, все же, скажем их MIT или Стэнфорда, а потом применять. Ну вот по тем же бутстрап подвыборкам и их степени независимости, вот я о чем.
источник

I

Ibp in Machine learning
ну это да
источник

АГ

Артём Глазунов... in Machine learning
Пока что видел статью по 5 2 cv только, поэтому раньше и использовал её, хотя и сомневался в связи с упомянутый проблемой not iid
источник

I

Ibp in Machine learning
Артём Глазунов
Пока что видел статью по 5 2 cv только, поэтому раньше и использовал её, хотя и сомневался в связи с упомянутый проблемой not iid
здесь вот понабирайте ключевые слова по теме что вас интересует и вам понакидает ссылок на научные работы и книги https://scholar.google.com/
источник

АГ

Артём Глазунов... in Machine learning
Но, как я уже упоминал, iid нет почти нигде строгого, честно говоря, все на веру берётся, что нарушения малы даже в общепризнанных исследованиях, потому что в стратифицированных выборках, к примеру, в стратах нарушения интуитивно понятны.
источник

АГ

Артём Глазунов... in Machine learning
Ibp
здесь вот понабирайте ключевые слова по теме что вас интересует и вам понакидает ссылок на научные работы и книги https://scholar.google.com/
Спасибо
источник

DP

Dmitry Penzar in Machine learning
Ibp
Да все это, все эти тесты, это на самом деле вопрос творчества и внутреннего чутья, ибо не существует генерального плана или фреймворка, как лучше выбрать лучший алгоритм используя статистические методы: результат лишь показывает насколько вероятно данные выборки могут наблюдаться если гипотеза верна (нулевая), а не насколько гипотеза верна на данной выборке. Так что всегда существует вероятность, иногда близкая к нулевой, что на реальных данных, "лучший алгоритм" покажет не лучший результат.
наличия большого числа способоо плавать и недостатка у каждого из них не говоорит о том, что моожно просто топориком вниз.

И полезно знать эти минусы и допущения
источник