Size: a a a

Machine learning

2020 July 04

SV

Sheptun Vol in Machine learning
Егор
Добрый день.
2 курс, 3-я неделя. sklearn.case_part2
На этапе обучения Pipline:
"estimator.fit(train_data, train_labels)"
выдаётся ошибка:
'numpy.ndarray' object has no attribute 'iloc'
Звучит так, что ты обращаешься к numpy вместо dataframe, либо без iloc попробуй, либо сделай его datframe
источник

Х

Хэнк in Machine learning
Егор
Добрый день.
2 курс, 3-я неделя. sklearn.case_part2
На этапе обучения Pipline:
"estimator.fit(train_data, train_labels)"
выдаётся ошибка:
'numpy.ndarray' object has no attribute 'iloc'
Ты обращаешься к numpy с функцией из pandas которого в numpy не имеется, в твоём случае iloc :)
источник

Х

Хэнк in Machine learning
Егор
Добрый день.
2 курс, 3-я неделя. sklearn.case_part2
На этапе обучения Pipline:
"estimator.fit(train_data, train_labels)"
выдаётся ошибка:
'numpy.ndarray' object has no attribute 'iloc'
data.iloc[:5, :4] равно array[:5, :4] то есть просто без iloc
источник

А

Алексей in Machine learning
Привет, подскажите. Используя регрессию Lasso, каким методом находятся веса для коэффициентов? При помощи SGD или умножением на псевдообратную матрицу?
источник

K

K-S in Machine learning
Для лассо аналитического решения не существует. И обычный сгд там не сработает, поскольку функция с модулем. Коэффы проксимальным град спуском находятся
источник

А

Алексей in Machine learning
как я понял аналитическим методом веса никто не ищет на практике, только спуск или вот как в лассо его модификация под негладкую функцию регуляризатора
источник

Н

Никита in Machine learning
Добрый вечер ,кто может пожалуйста объяснить ,в чем разница между dummy encoding и one-hot encoding?
источник

IK

Ivan Krokhalyov in Machine learning
Алексей
как я понял аналитическим методом веса никто не ищет на практике, только спуск или вот как в лассо его модификация под негладкую функцию регуляризатора
+. Проще подходить спуском чем обращать большую матрицу
источник

IK

Ivan Krokhalyov in Machine learning
Никита
Добрый вечер ,кто может пожалуйста объяснить ,в чем разница между dummy encoding и one-hot encoding?
Это вроде два названия одного и того же.
источник

Н

Никита in Machine learning
Ну вот везде по-разному говорят . Где-то ,что это одно и то же ,где-то говорят ,что в dummy кодировании число степеней свободы k-1 ,а в one-hot = k
источник

IK

Ivan Krokhalyov in Machine learning
k-1 - это если последняя категория воспринимается как 0 0 ... 0 во всех остальных
источник

IK

Ivan Krokhalyov in Machine learning
А k - когда под эту категорию ещё есть отдельный столбец
источник

IK

Ivan Krokhalyov in Machine learning
Ivan Krokhalyov
k-1 - это если последняя категория воспринимается как 0 0 ... 0 во всех остальных
Это целесообразно когда вы знаете абсолютно все значения переменной
источник

IK

Ivan Krokhalyov in Machine learning
Ivan Krokhalyov
А k - когда под эту категорию ещё есть отдельный столбец
Это - если в тесте могут быть значения, о которых вы не знаете.
источник

Н

Никита in Machine learning
То есть ,если у нас есть категориальный признак с None значением ,то мы используем one-hot и кодируем все значения,а None значение мы тоже кодируем ?
источник

IK

Ivan Krokhalyov in Machine learning
Ну например в тренировочной выборке есть переменная Страна. США Мексика Япония. Кодировщик создает три переменные. Возникает неизвестное значение Сингапур где то в тесте , тогда ему соответствует значение 0 0 0 этих переменных.
источник

IK

Ivan Krokhalyov in Machine learning
Если такой ситуации точно не возникнет, тогда можно делать k-1 переменную
источник

Н

Никита in Machine learning
Понял,спасибо . А что делать ,если у нас будут пропуски  или None значения ?
источник

IK

Ivan Krokhalyov in Machine learning
Будет бинарная переменная как и для любого другого значения по идее
источник

Н

Никита in Machine learning
спасибо за объяснение )
источник