Size: a a a

Machine learning

2020 December 30

AR

Anton Rogozin in Machine learning
Roman
А можно ссылку, пожалуйста!
Скорее всего речь про https://www.coursera.org/specializations/statistics
источник

R

Roman in Machine learning
Спасибо, Антон)
источник

Е

Евгений in Machine learning
Vladislav-kun
Если полный ноль в Питоне... советую попрактиковаться в этом ЯП, иначе это будет просто тяжело
Скиньте ссылку пожалуйста
источник

A

Andrey in Machine learning
источник

A

Andrey in Machine learning
Друзья, проверьте пожалуйста! А то праздники впереди ))
источник

DP

Dmitry Penzar in Machine learning
+, спасибо)
источник

K

K-S in Machine learning
Наталия Хорунжий
Ага. А ещё подтянуть мат статистику, да?)
В качестве хорошего курса по введению в тервер можно порекомендовать курс Храброва на степике. Но так как это CSC, то курсы это не самые простые
источник

i

igor in Machine learning
В качестве хорошего курса по тёр веру курс мит на едхс. Храбов даже рядом с ним не стоял.
источник

НХ

Наталия Хорунжий... in Machine learning
Едхс, это что?
источник

K

K-S in Machine learning
igor
В качестве хорошего курса по тёр веру курс мит на едхс. Храбов даже рядом с ним не стоял.
И чем же это?
источник

A

Andy in Machine learning
Наталия Хорунжий
Едхс, это что?
edX
источник

НХ

Наталия Хорунжий... in Machine learning
Спасибо
источник

i

igor in Machine learning
K-S
И чем же это?
Всем уровнем качеством педагогически, материалом, заданиями, много чем.
источник

K

K-S in Machine learning
igor
Всем уровнем качеством педагогически, материалом, заданиями, много чем.
1. Без аргументов звучит как полная субъективщина

2. Наличие более развёрнутой программы не делает курс априори лучше. По тем же марковским цепям, процессу Пуассона итд у Храброва есть отдельный курс

3. Всерьёз предъявлять за отсутствие Байеса в курсе, позиционирующему себя как введение, это по меньшей мере странно. Отдельно по байесу есть свои отличные курсы. Но грузить людей МСМС на введении в тервер — это бред.

4. Чем именно лучше задания? У Храброва встречаются весьма заковыристые, из вступительных в Шад в том числе
источник

GB

George Boole in Machine learning
Ребят, чем лучше и всегда ли лучше создать новые признаки и добавить их к нашим данным? Признаки, естественно, не с потолка, а связаны с классифицируемыми объектами, сообщают о нём много информации
источник

i

igor in Machine learning
George Boole
Ребят, чем лучше и всегда ли лучше создать новые признаки и добавить их к нашим данным? Признаки, естественно, не с потолка, а связаны с классифицируемыми объектами, сообщают о нём много информации
Нет не всегда
источник

GB

George Boole in Machine learning
K-S
1. Без аргументов звучит как полная субъективщина

2. Наличие более развёрнутой программы не делает курс априори лучше. По тем же марковским цепям, процессу Пуассона итд у Храброва есть отдельный курс

3. Всерьёз предъявлять за отсутствие Байеса в курсе, позиционирующему себя как введение, это по меньшей мере странно. Отдельно по байесу есть свои отличные курсы. Но грузить людей МСМС на введении в тервер — это бред.

4. Чем именно лучше задания? У Храброва встречаются весьма заковыристые, из вступительных в Шад в том числе
Плюсую, Храбров топ — хорошо объясняет, даёт сложные задачи, а ещё он отвечает в комментариях на Степике
источник

K

K-S in Machine learning
George Boole
Ребят, чем лучше и всегда ли лучше создать новые признаки и добавить их к нашим данным? Признаки, естественно, не с потолка, а связаны с классифицируемыми объектами, сообщают о нём много информации
Не очень понял вопроса «чем?») если речь о таблицах и данные не анонимные, то основываясь на доменных знаниях, можно обычно много чего прмдумать)
источник

i

igor in Machine learning
По цепям маркова курс отстойный у него
источник

i

igor in Machine learning
Вы зря топите за шлак если есть хорошие курсы.
источник