Size: a a a

Machine learning

2020 May 28

K

K-S in Machine learning
Aroh
Или dummy. Я так и не понял это одно и тоже или разное )
По сути и там, и там кодирование категориального признака происходит через создание бинарных признаков. По уму, конечно, такое кодирование всегда должно предполагать создание n-1 бинарных признаков, где n — кол-во категорий. Это нужно для того, чтобы в данных не появлялась строгая мультиколлинеарность.

На практике же чистые линейные модели используют редко, как правило всегда навешивается сверху регуляризация, которая в свою очередь убирает эффект неединственности оценок, который наступает в случае этой самой строгой мультиколлинеарности, и поэтому на n-1 признаков, грубо говоря, забивают и вводят n бинарных. Хотя это, конечно, некрасивый подход
источник

AT

Anastasiia Tolstokor... in Machine learning
а еще вопрос, если у меня все признаки в датасете бинарные, то есть диапазон от 0 до 1, кроме одного, то разумно ведь сделать нормализацию минимакс только одного признака?
источник

AT

Anastasiia Tolstokor... in Machine learning
или это неважно, и лучше стандартизацию?
источник

K

K-S in Machine learning
Anastasiia Tolstokorova
а еще вопрос, если у меня все признаки в датасете бинарные, то есть диапазон от 0 до 1, кроме одного, то разумно ведь сделать нормализацию минимакс только одного признака?
Да, вполне
источник

I

Ibp in Machine learning
зависит еще от модели, если xgboost, например, то не надо
источник

AT

Anastasiia Tolstokor... in Machine learning
спасибо
источник

A

Aroh in Machine learning
K-S
По сути и там, и там кодирование категориального признака происходит через создание бинарных признаков. По уму, конечно, такое кодирование всегда должно предполагать создание n-1 бинарных признаков, где n — кол-во категорий. Это нужно для того, чтобы в данных не появлялась строгая мультиколлинеарность.

На практике же чистые линейные модели используют редко, как правило всегда навешивается сверху регуляризация, которая в свою очередь убирает эффект неединственности оценок, который наступает в случае этой самой строгой мультиколлинеарности, и поэтому на n-1 признаков, грубо говоря, забивают и вводят n бинарных. Хотя это, конечно, некрасивый подход
Почему возникает мультиколлениарность, если новых признаков столько же, сколько категорий?
источник

K

K-S in Machine learning
Aroh
Почему возникает мультиколлениарность, если новых признаков столько же, сколько категорий?
Потому что сумма этих признаков всегда будет равна константному единичному признаку
источник

I

Ibp in Machine learning
так вроде w*(x..+xn)=w*1, если все категории учтены, у нас же (x..+xn) - это некая матрица. ?
источник

K

K-S in Machine learning
Не понял. У вас же n новых признаков будет, соответственно и n новых весов
источник

I

Ibp in Machine learning
ну в модели идет сложение (w1*x1+w2*x2..+wn*xn)=w(x1+x2+..xn)=w*1/ так вроде, если x-nый в скобках равен либо единице либо нулю в каждой строчке?
источник

K

K-S in Machine learning
Представьте матрицу объекты-признаки X, где по столбцам у нас наши признаки. Первым идёт константный единичный признак. Если вы введёте n бинарных признаков на n категорий, то вы получите систему линейно зависимых векторов, то есть строгую мультиколлинеарность
источник

P

Pierre in Machine learning
Друзья. Подскажите пару идей, как монетизировать знания (краткосрочно, и за сравнительно небольшие деньги)
Закончил 3 курса специализации, теперь самостоятельно копаю в сверточные сети
источник

I

Ibp in Machine learning
ну так это тоже самое только другим языком, я просто отталкивался от того что константного ед. признака нет
источник

K

K-S in Machine learning
Ibp
ну так это тоже самое только другим языком, я просто отталкивался от того что константного ед. признака нет
Но ведь он есть)
источник

I

Ibp in Machine learning
ну почему он есть, это от хозяина зависит:))
источник

AT

Anastasiia Tolstokor... in Machine learning
Ibp
ну в модели идет сложение (w1*x1+w2*x2..+wn*xn)=w(x1+x2+..xn)=w*1/ так вроде, если x-nый в скобках равен либо единице либо нулю в каждой строчке?
а как у вас получилось вынести w за скобки?
по идее ж при каждом х веса разные
источник

K

K-S in Machine learning
Ibp
ну почему он есть, это от хозяина зависит:))
Да он всегда есть, если в модели есть свободный член w.
источник

I

Ibp in Machine learning
Anastasiia Tolstokorova
а как у вас получилось вынести w за скобки?
по идее ж при каждом х веса разные
видимо при таком раскладе все w-nые будут равны w, так видимо
источник

I

Ibp in Machine learning
K-S
Да он всегда есть, если в модели есть свободный член w.
ну так я и говорю, от хозяина модели зависит, ввел он его или нет, в некоторых случаях он может априори, например, равен нулю
источник