Size: a a a

Machine learning

2020 November 25

K

K-S in Machine learning
igor
Для болезней сердца НБ дает неплохой результат
это не SAS случайно?
источник

i

igor in Machine learning
Сас не знаю, он платный
источник

SS

Sergey Salnikov in Machine learning
знакомый интерфейс, когда-то щупал, прикольный ui
источник

K

K-S in Machine learning
Sergey Salnikov
но все уже поняли, что без сеток там тяжко ) я для прокачки этого направления (сетки для мульти-таргет) взял беспризовую таску на кагле по вакцинации, там 3 месяца, успею
да на самом деле никто еще не понял, пока приват не опубликовали. Логрегом 0.01902 выжал. Буду пытаться вот на сетки переносить все находки
источник

SS

Sergey Salnikov in Machine learning
igor
Для болезней сердца НБ дает неплохой результат
напомните, что за тулза?
источник

i

igor in Machine learning
Orange
источник

SS

Sergey Salnikov in Machine learning
а, точно
источник

SS

Sergey Salnikov in Machine learning
кстати, настоятельно рекомендую, весьма недурственная тулза для eda
источник

i

igor in Machine learning
школьники любят и пенсионеры тоже
источник

НП

Николай Погосян... in Machine learning
Добрый вечер всем!
источник

SS

Sergey Salnikov in Machine learning
ну для задачек типа iris- самое то
источник

НП

Николай Погосян... in Machine learning
Есть вопрос по заданию в курсе "Обучение на размеченных данных
Неделя 1" Тетрадь: PA_linreg_stochastic_grad_descent.ipynb
При предлагаемых параметрах процесс не сходится, хотя авторы утверждают, что таки сходится, хотя ошибка явно застревает на 0.02. Предложено проверить шаг стохастического градиентного спуска, но там ошибиться просто негде:
ef stochastic_gradient_step(X, y, w, train_ind, eta=0.01):
   return  w - eta * np.array(X[train_ind])*(np.dot(w,np.array(X[train_ind]))-y[train_ind])
Соответсвенно, результат, видимо, не даёт большую (0.1) ошибку по отношению к теоретическому. При уменьшении шага спуска результат улучшается, но тоже сходимости, как таковой, не наблюдается.
"Доктор, что я делаю не так?"
источник

А

Артем in Machine learning
Николай Погосян
Есть вопрос по заданию в курсе "Обучение на размеченных данных
Неделя 1" Тетрадь: PA_linreg_stochastic_grad_descent.ipynb
При предлагаемых параметрах процесс не сходится, хотя авторы утверждают, что таки сходится, хотя ошибка явно застревает на 0.02. Предложено проверить шаг стохастического градиентного спуска, но там ошибиться просто негде:
ef stochastic_gradient_step(X, y, w, train_ind, eta=0.01):
   return  w - eta * np.array(X[train_ind])*(np.dot(w,np.array(X[train_ind]))-y[train_ind])
Соответсвенно, результат, видимо, не даёт большую (0.1) ошибку по отношению к теоретическому. При уменьшении шага спуска результат улучшается, но тоже сходимости, как таковой, не наблюдается.
"Доктор, что я делаю не так?"
Проверьте правильно ли подготовлены данные
источник

НП

Николай Погосян... in Machine learning
Хорошо, проверю, но меня смущает то, что при уменьшении шага, результат таки приближается к теоретическому, что, косвенно, подтверждает, что данные "живы".
источник

НП

Николай Погосян... in Machine learning
Данные проверил. После формирования не меняются, только чтение.
источник

G

Gulziya in Machine learning
Всем привет! Подскажите пожалуйста где можно скачать пайтон 2.7.  на сайте continuum.io можно установить..но там уже 3 версия 😬
источник

НП

Николай Погосян... in Machine learning
Да, забыл сказать. Первые три задания (т.е. теоретические расчёты и ошибки) рассчитаны верно и приняты автоматикой. Это тоже (ИМХО) косвенно подтверждает правильность подготовленных данных.
источник

SS

Sergey Salnikov in Machine learning
на официальном python.org
источник

VP

Vitaliy Podvalniy in Machine learning
Добрый день! Подскажите решение пожалуйста! Задача сделать формулу подсчета риска. На вход есть 7 источников риска от 0 до 100.  Пример [10, 80, 5, 91, 2, 5, 50]. Из этих источников надо сделать один скор (0-100) который нелинейно будет уменьшать малые числа и усиливать большые. Условно если у нас есть [91, 5, 6, 3], то числа 5,6,3 должны усилить 91 меньше в сравнении если б было 91 и 45,50,70.
Заранее спасибо!
источник

AR

Anton Rogozin in Machine learning
Gulziya
Всем привет! Подскажите пожалуйста где можно скачать пайтон 2.7.  на сайте continuum.io можно установить..но там уже 3 версия 😬
Читаем закреп
источник