Size: a a a

Machine learning

2020 June 02

Ю

Юрий in Machine learning
Прошу прощения, значит для первой гипотезы
источник

Ю

Юрий in Machine learning
Ska Doodl
Но тогда alpha/N это же получается очень маленькое число? разве нет?
Это плата за уверенность о доле ошибок первого рода при таком количестве проверок. Там совсем мало гипотез вроде будет отвергнуто (возможно, 0, точно не помню)
источник
2020 June 03

ЯШ

Ярик Шаталов... in Machine learning
Зато бесплатно
источник

TA

Thomas Anderson in Machine learning
Подскажите кто знает очистить память на колабе у куда?я попробовал вот так но не выходит
источник

AR

Anton Rogozin in Machine learning
#C6W3 Анализ тональности текста
Это вопрос больше про типовую задачу классического ML с kaggle. Допустим, нам дали обучающую выборку с классами и тестовую без классов. Чтобы избежать переобучения, мы используем кросс валидацию на обучающей выборке. Согласно некоторой метрике (в рамках этой задачи accuracy) получаем самую лучшую модель, выбранную с помощью grid search и/или личных соображений/предпочтений. Чем больше качество на обучающей под вышеуказанному алгоритму, тем лучше оценка на тестовой выборке - по крайней мере после нескольких моих самбитов зависимость виднеется. Правильно ли я рассуждаю?
источник

AT

Aika Turganbayeva in Machine learning
источник

AT

Aika Turganbayeva in Machine learning
всем привет! #C1W2
Подскажите, пожалуйста, где ошибка?
источник

IK

Ivan Krokhalyov in Machine learning
пробел в print
источник

Ю

Юрий in Machine learning
Третья строка снизу - не хватает закрывающей скобки
источник

Ю

Юрий in Machine learning
Даже двух вроде
источник

AT

Aika Turganbayeva in Machine learning
Юрий
Третья строка снизу - не хватает закрывающей скобки
точно! спасибо!
источник

I

Ibp in Machine learning
Anton Rogozin
#C6W3 Анализ тональности текста
Это вопрос больше про типовую задачу классического ML с kaggle. Допустим, нам дали обучающую выборку с классами и тестовую без классов. Чтобы избежать переобучения, мы используем кросс валидацию на обучающей выборке. Согласно некоторой метрике (в рамках этой задачи accuracy) получаем самую лучшую модель, выбранную с помощью grid search и/или личных соображений/предпочтений. Чем больше качество на обучающей под вышеуказанному алгоритму, тем лучше оценка на тестовой выборке - по крайней мере после нескольких моих самбитов зависимость виднеется. Правильно ли я рассуждаю?
по идее так и должно быть, потому что при кросс валидации, те данные на которых тестируется алгоритм не входят в обучение, но на практике, если например на ваши конечные признаки в тестовой выборке что то влияет, что не было учтено при составлении обучаемой выборки. могут быть расхождения
источник

AR

Anton Rogozin in Machine learning
Ibp
по идее так и должно быть, потому что при кросс валидации, те данные на которых тестируется алгоритм не входят в обучение, но на практике, если например на ваши конечные признаки в тестовой выборке что то влияет, что не было учтено при составлении обучаемой выборки. могут быть расхождения
Вот-вот, из-за этого это задание мне и кажется немного игрой вслепую - об особенностях тестовой ничего не знаем)
источник

I

Ibp in Machine learning
ну если вы ее сами создавали а потом просто отделили от общей кучи, то волноваться не очем
источник

K

K-S in Machine learning
Anton Rogozin
Вот-вот, из-за этого это задание мне и кажется немного игрой вслепую - об особенностях тестовой ничего не знаем)
Adversarial validation проведите
источник

A

Aroh in Machine learning
так в реальной жизни же так же
источник

A

Aroh in Machine learning
никогда нельзя быть увереным, что новые данные не окажутся под влиянием еще неизведанного фактора
источник

KK

Kate Kate in Machine learning
спасибо тому, кто отозвался и проверил)
источник

АП

Александр Попов... in Machine learning
С4W1 Test Доверительные интервалы для долей.

Привет. Нужно оценить доверительный интервал (proportion_confint) для популяции майя с параметром method ='normal'. Проблема в том, что  нижняя граница 0.0000, что не является правильным ответом.
При том, оценка с параметром method = 'wilson' рассчитана верно. Все остальные параметры идентичны.
Подскажите, что тут не так.

Python 3.8
np 1.18.1
pd 1.0.1
scipy 1.4.1
источник

А

Анна in Machine learning
источник