Size: a a a

Machine learning

2020 November 26

i

igor in Machine learning
да там есть и цепи маркова и байесовская статистика основы
источник

I

Ibp in Machine learning
igor
Но если выоценили для первой монетки вероятность решки как 0.1 а для второй 0.11 это не значит, что на второй монетке чаще выпадают решки
скажем на одной модели может быть точность 0,1 со стандартным отклонением 0.07, а на второй 0,11 с отклонением 0,02 . Тест и покажет что результат второй модели более статистически значим
источник

I

Ibp in Machine learning
igor
да там есть и цепи маркова и байесовская статистика основы
ну а если есть, напишите как выбирать. Ибо наличие худой теории всегда лучше чем ее отсутствие. даже порой если она и не всегда верна.
источник

i

igor in Machine learning
Ibp
скажем на одной модели может быть точность 0,1 со стандартным отклонением 0.07, а на второй 0,11 с отклонением 0,02 . Тест и покажет что результат второй модели более статистически значим
без дополнительных данных, с большой вероятностью различии будут не значимы на ваших данных. Потом откуда будет стандартное отклонение. Его тоже нужно оценить. А оценки будут скореллированы, много тонких мест, чтобы можно было сказать делай так и все будет ок
источник

i

igor in Machine learning
Ibp
ну а если есть, напишите как выбирать. Ибо наличие худой теории всегда лучше чем ее отсутствие. даже порой если она и не всегда верна.
Там хороший курс  толко домашние сложные и  экззамены. Но это хорошо
источник

I

Ibp in Machine learning
igor
без дополнительных данных, с большой вероятностью различии будут не значимы на ваших данных. Потом откуда будет стандартное отклонение. Его тоже нужно оценить. А оценки будут скореллированы, много тонких мест, чтобы можно было сказать делай так и все будет ок
ну там же ссылка есть на работу  Thomas G. Dietterich, который основан на 5 × 2 cv, based on five iterations of twofold cross-validation, оттуда все и берется https://www.mitpressjournals.org/doi/pdf/10.1162/089976698300017197
источник

ма

малефікарка мене пор... in Machine learning
Роман
Ребят, есть советы по хорошим курсам теорвера? на степике мб?
очень зависит от того, сколько у тебя есть времени и какие задачи ты перед собой ставишь (рисёрч? машинлёрнинг с глубоким пониманием? дата-инженер? это не в обиду, просто для разных задач нужно по-разному ставить приоритеты)
если всё же рисёрч и машинлёрнинг, советую взять любой поверхностный курс, чтоб сформировать понимание, а потом заниматься по книгам. хардовых курсов почти не бывает, на каком-то этапе всё придётся перейти на книжки
источник

A

Artyom in Machine learning
🙋‍♂️ привет!  Подскажите пожалуйста, какие тренды в machine learning будут в 2021 году🙏
источник

A

Artyom in Machine learning
Что будет супер популярно в ближайшее время?
источник

A

Alexander in Machine learning
Все что связано с речью и текстами
источник

A

Artyom in Machine learning
спасибо, Может быть, что нибудь ещё есть?
источник

А

Артем in Machine learning
Artyom
🙋‍♂️ привет!  Подскажите пожалуйста, какие тренды в machine learning будут в 2021 году🙏
На мой взгляд оптимизация алгоритмов и создание алгоритмов под новые типы вычислителей
источник

И

Илья in Machine learning
Ребят, кто слышал про логистическую трансформацию?
Зачем она нужна?
источник

I

Ibp in Machine learning
Илья
Ребят, кто слышал про логистическую трансформацию?
Зачем она нужна?
может это про логистическую функцию ака сигмоид в логистической регрессии например, где она преобразует выходы алгоритма  в вероятности?
источник

И

Илья in Machine learning
Ibp
может это про логистическую функцию ака сигмоид в логистической регрессии например, где она преобразует выходы алгоритма  в вероятности?
Вроде нет(
Как я понял, она помогает преобразовать значения от 0 до 1
источник

I

Ibp in Machine learning
Илья
Вроде нет(
Как я понял, она помогает преобразовать значения от 0 до 1
так это и есть
источник

I

Ibp in Machine learning
просто сигмоид это выходит инверсия логит функции
источник

I

Ibp in Machine learning
источник

И

Илья in Machine learning
Вроде похожа, спасибо
Но в лог трансформации она так выглядела
1/ 1 + (slope* (x + midpoint))
источник

И

Илья in Machine learning
Вообщем, хотя бы понял посыл
источник