Size: a a a

Machine learning

2020 November 21

И

Илья in Machine learning
неет, а что
источник

i

igor in Machine learning
если сделаете так затыков ненужных меньше будет
источник

i

igor in Machine learning
Просто важно не тратить время на неважные детали имхо
источник

И

Илья in Machine learning
а что это?
источник

AS

Adel Safin in Machine learning
Valery
у тебя есть 2д массив, но ты хочешь оптимально через словари сделать?
Сразу не заметил сообщения, да, алгоритм, описанный в курсе, говорит делать через них
В чем была проблема, разобрался, спасибо за отклик)
источник

K

K-S in Machine learning
А данные нормализованы?
источник

И

Илья in Machine learning
K-S
А данные нормализованы?
хм, нет
но ведь это вроде не так критично?
источник

K

K-S in Machine learning
Илья
хм, нет
но ведь это вроде не так критично?
Почему же? Если линии уровня MSE будут похожими на эллипс, то есть риск расхождения градиентного спуска
источник

i

igor in Machine learning
Поверхность выпуклая всегда будет сходимость бро
источник

i

igor in Machine learning
Но лучше таки отнормализовать
источник

i

igor in Machine learning
Ск—а тоже в своей книге рекомендует нормализовать
источник

K

K-S in Machine learning
Илья
хм, нет
но ведь это вроде не так критично?
Повыводи принтами несколько значений получаемых оценок. Производные частные вроде верно рассчитаны, если я нигде под вечер уже сам ничего не проморгал
источник

HB

Hide Behind in Machine learning
Можно попробовать lr уменьшить :)
источник

K

K-S in Machine learning
igor
Поверхность выпуклая всегда будет сходимость бро
Она может либо занять значительно больше итераций для сходимости либо если совсем плохо подобран шаг град спуска (хотя тут вроде 1е-3 адекватно), то можно от точки минимума только отдалиться
источник

K

K-S in Machine learning
Ну и, кстати, ты при проверке на эпсилон никак свободный член не учитываешь. Не совсем ком иль фо
источник

i

igor in Machine learning
обычно шаг зависит от градиента, но тут каждый сам себе програмист
источник

И

Илья in Machine learning
круто,  он не ушел в бесконечность и даже написал win,  но качесто такое
если возможно еще как-то улучшить показатели?
источник

K

K-S in Machine learning
А посчитай рядом оценки коэффициентов аналитически через (X.T*X)^(-1)*X.T*y, чтоб ориентир был
источник

И

Илья in Machine learning
K-S
Почему же? Если линии уровня MSE будут похожими на эллипс, то есть риск расхождения градиентного спуска
получается у меня так и было?
источник

K

K-S in Machine learning
Судя по большим по модулю оценкам и после нормализации, проблема ещё не решена скорее всего. Прогони рядышком аналитическое решение, чтоб было с чем сравнивать
источник