Size: a a a

Machine learning

2020 May 29

OG

Olga Gonch in Machine learning
K-S
А зачем, когда есть алгоритмы, которые из коробочки уже хорошо с большими размерностями работают? Понижение — это ведь все-таки так или иначе потеря информации.
а про коробочку можно поподробнее?
источник

ET

Eugene Tartakovsky in Machine learning
да, мне тоже интересно. Что умеет хорошо справляться с например 1к фичей в датасете?
источник

OT

Oscar Tempter in Machine learning
K-S
А зачем, когда есть алгоритмы, которые из коробочки уже хорошо с большими размерностями работают? Понижение — это ведь все-таки так или иначе потеря информации.
Ну это же LSA. Иногда наверняка хорошо должно работать. А вообще да, если работает ну и отлично
источник

K

K-S in Machine learning
Olga Gonch
а про коробочку можно поподробнее?
SVM
источник

K

K-S in Machine learning
Eugene Tartakovsky
да, мне тоже интересно. Что умеет хорошо справляться с например 1к фичей в датасете?
SVM. Но если выборка большая, то это будет очень долго. Надо либо использовать расчёт на гпу, либо брать логрег
источник

ET

Eugene Tartakovsky in Machine learning
🙏
источник

K

K-S in Machine learning
Эт если мы говорим о простых модельках, конечно) без сеток
источник

P

Pi in Machine learning
K-S
А зачем, когда есть алгоритмы, которые из коробочки уже хорошо с большими размерностями работают? Понижение — это ведь все-таки так или иначе потеря информации.
но ведь какие то признаки могут быть не информативными
источник

K

K-S in Machine learning
Pi
но ведь какие то признаки могут быть не информативными
Ну можно отобрать признаки предварительно.
источник

P

Pi in Machine learning
K-S
Ну можно отобрать признаки предварительно.
вручную?
источник

K

K-S in Machine learning
Нет, конечно
источник

K

K-S in Machine learning
Permutation importance, например
источник

OG

Olga Gonch in Machine learning
В продолжении разговора о классификации текстов. Я использую BigArtm для классификации без учителя
источник

OG

Olga Gonch in Machine learning
Какие есть альтернативы современные. У меня пару сотен диалогов, нужно разбить их на 10, 15, 20 тем
источник

AR

Anton Rogozin in Machine learning
Может быть doc2vec и лог регрессия?
источник

AR

Anton Rogozin in Machine learning
У меня диссер по этой теме - если тексты хорошие и корпус большой, то справляется лучше LSA и LDA
источник

OG

Olga Gonch in Machine learning
А разве для Doc2vec не нужна тренировочная выборка с метками классов?
источник

II

Ilya Ilya in Machine learning
Всем привете.Такие вопросы возникли.Прошел 2 курса,ну и они получается сохранились как пройденные и я имею к ним доступ.Так вот,этот доступ навсегда или же через некоторое время исчезнет.И подскажите ещё пожалуйста,временные ряды на какой курсе разбираются?
источник

Ю

Юрий in Machine learning
Ilya Ilya
Всем привете.Такие вопросы возникли.Прошел 2 курса,ну и они получается сохранились как пройденные и я имею к ним доступ.Так вот,этот доступ навсегда или же через некоторое время исчезнет.И подскажите ещё пожалуйста,временные ряды на какой курсе разбираются?
Времянные ряды разбираются на 5 курсе специализации, поверхностно.
источник

II

Ilya Ilya in Machine learning
Спасибо,может знает кто курс отдельный именно по временным рядам?
источник