Size: a a a

Machine learning

2021 January 12

VD

Vladimir D in Machine learning
перечитай задание внимательнее
источник

NB

Nazar Bilukha in Machine learning
понял, спасибо
источник

N

Nikolay in Machine learning
Ребят, посоветуйте хороший курс на кусейре для начала
источник

N

Nikolay in Machine learning
Сорян прочитал факу, нашел все что мне нужно там
источник

MM

Mira Mironova in Machine learning
Nikolay
Сорян прочитал факу, нашел все что мне нужно там
Ура!)
источник

i

igor in Machine learning
Отлично
источник

AE

Alexey Evstifeev in Machine learning
Господа, есть какое-нибудь пособие, руководство, где циклы в подобном виде разбираются? очень сложно осозновать их. Как и функцию lambda, map
источник

i

igor in Machine learning
это же list comprehension
источник

i

igor in Machine learning
Вы хотите понять как он работает?
источник

i

igor in Machine learning
Таким строкам потом замучаетесь делать дебагин
источник

A

Alexey in Machine learning
Я правильно понимаю, что регуляризация нужна для уменьшения дисперсии оценок, поэтому большие значения регрессоров это плохо? но странно все равно - большие значения == высокая дисперсия?
источник

A

Alexey in Machine learning
в курсе кто-то сказал (Соколов?)что доказывается, что при мультиколл регрессоры растут... но док-ва не было, там жесть какая-то?
источник

SD

Sergey Djuja in Machine learning
В задании:
Линейная регрессия и стохастический градиентный спуск

Предлагают:

Отмасштабируйте столбцы матрицы X, вычтя из каждого значения среднее по соответствующему столбцу и поделив результат на стандартное отклонение

Зачем нам предлагают это сделать?
Это чем-то поможет сделать стохастический градиентный спуск??
источник

АГ

Артём Глазунов... in Machine learning
Sergey Djuja
В задании:
Линейная регрессия и стохастический градиентный спуск

Предлагают:

Отмасштабируйте столбцы матрицы X, вычтя из каждого значения среднее по соответствующему столбцу и поделив результат на стандартное отклонение

Зачем нам предлагают это сделать?
Это чем-то поможет сделать стохастический градиентный спуск??
источник

АГ

Артём Глазунов... in Machine learning
Alexey
в курсе кто-то сказал (Соколов?)что доказывается, что при мультиколл регрессоры растут... но док-ва не было, там жесть какая-то?
Не регрессоры растут, а коэффициенты, веса w
источник

АГ

Артём Глазунов... in Machine learning
Регуляризация и масштаб признаков не связаны
источник

ИБ

Илья Биро in Machine learning
Sergey Djuja
В задании:
Линейная регрессия и стохастический градиентный спуск

Предлагают:

Отмасштабируйте столбцы матрицы X, вычтя из каждого значения среднее по соответствующему столбцу и поделив результат на стандартное отклонение

Зачем нам предлагают это сделать?
Это чем-то поможет сделать стохастический градиентный спуск??
Да, поможет
При минимизации функции ошибки без масштабирования будут возникать большие веса, которые плохо влияют на модель и минимизацию в целом
источник

SD

Sergey Djuja in Machine learning
Интуитивно понятно что это может помочь, но авторы пишут в задании к первой неделе,  где про это не говорили )
Видимо чтобы мы сами разбирались )
источник

АГ

Артём Глазунов... in Machine learning
Суть именно в градиентным спуске, он быстрее сходится, устойчивее модель, вот и все
источник

АГ

Артём Глазунов... in Machine learning
Для линейных так
источник