Size: a a a

Machine learning

2020 May 12

A

Alexey in Machine learning
кто хочет мощного курса по статистике - на  edx вчера начался MIT Fundamentals of Statistics..  Там сразу на вступительном тесте многое понятно ))
источник

A

Alexey in Machine learning
источник

RN

Roman Nm in Machine learning
Ильдар Шаймарданов
Доброго вечера. У меня назрел вопрос, может кто-то сможет объяснить почему при вычислении оптимальных весов для линейной регрессии по аналитической формуле получается результат, дающий ошибку на исходных данных(пусть и минимальную) ?
Потому что в исходных данных есть погрешность. полностью удовлетворить им невозможно.
источник

К

Клим in Machine learning
Ильдар Шаймарданов
Доброго вечера. У меня назрел вопрос, может кто-то сможет объяснить почему при вычислении оптимальных весов для линейной регрессии по аналитической формуле получается результат, дающий ошибку на исходных данных(пусть и минимальную) ?
Если не будет ошибки скорее всего ты переобучишь модель
источник

ВЧ

Владимир Четвериков... in Machine learning
Артур Ким
Проверил, жду 7-ю неделю теперь :D
Уже начал делать) скоро будет готово
источник

K

K-S in Machine learning
Ильдар Шаймарданов
Мы же решали исходное уравнение следующего вида
Это по сути система линейных уравнений (просто записана в матричном виде). Если она имеет однозначное решение (т.е. существуют такие корни/веса, при которых все игреки однозначно определяются из данных уравнений), то полученное решение совпадёт и с решением оптимизационной задачи, в которой мы минимизируем норму разности
|X*w - y|. Другое дело, что система уравнений эта может не иметь решений, а вот решение задачи оптимизации всегда будет (но не факт, что единственно)
источник

ИШ

Ильдар Шаймарданов... in Machine learning
Функционал ошибки минимален когда выполняется равенство y = Xw, далее мы выводим аналитическое уравнение для w. Но в какой момент мы теряем равенство y и Xw я пока не могу понять
источник

ИШ

Ильдар Шаймарданов... in Machine learning
Спасибо за ответы!
источник

К

Клим in Machine learning
Ильдар Шаймарданов
Функционал ошибки минимален когда выполняется равенство y = Xw, далее мы выводим аналитическое уравнение для w. Но в какой момент мы теряем равенство y и Xw я пока не могу понять
А у нас нет равенства
источник

К

Клим in Machine learning
Мы приводим ошибку к минимуму
источник

К

Клим in Machine learning
А не значения
источник

К

Клим in Machine learning
источник

К

Клим in Machine learning
Тут почитай)
источник

ИШ

Ильдар Шаймарданов... in Machine learning
Почитаю, спасибо!
источник

Б

Бенджамин in Machine learning
источник

RN

Roman Nm in Machine learning
K-S
Это по сути система линейных уравнений (просто записана в матричном виде). Если она имеет однозначное решение (т.е. существуют такие корни/веса, при которых все игреки однозначно определяются из данных уравнений), то полученное решение совпадёт и с решением оптимизационной задачи, в которой мы минимизируем норму разности
|X*w - y|. Другое дело, что система уравнений эта может не иметь решений, а вот решение задачи оптимизации всегда будет (но не факт, что единственно)
Как же не единственно? Оно может быть не единственно, только когда меньше двух точек.
источник

K

K-S in Machine learning
Roman Nm
Как же не единственно? Оно может быть не единственно, только когда меньше двух точек.
Если у нас количество предикторов больше количества объектов в выборке
источник

RN

Roman Nm in Machine learning
K-S
Если у нас количество предикторов больше количества объектов в выборке
Да, сорри. Почему-то на двумерный случай мысленно смотрел
источник

IL

Ignat Levagin in Machine learning
Всем привет. Помогите с C2W1, пожалуйста. Задание, где нужно реализовывать стохастический градиентный спуск (задание 4). Как там нужно считать градиент? Я попробовал все варианты: и с y.shape[0] в знаменателе, и без.
источник
2020 May 13

ИШ

Ильдар Шаймарданов... in Machine learning
Сам только что сдал эту задачу. Часа три сидел. Там проблемы с размерностями. Мне помогло создание Y одномерным массивом размерности (200), а не двумерными массивом размерности (200, 1)
источник