Size: a a a

Machine learning

2020 May 29

I

Ibp in Machine learning
чтобы доказать, что если сумма всех этих коэфициентов при w равна единице, то w равно у, мы отсюда вот начали плясать. от того равно ли количество категориальных признаков при onehot encoding количеству признаков или минус один
источник

AT

Anastasiia Tolstokor... in Machine learning
окей, спасибо за обьяснение
источник

I

Ibp in Machine learning
блин, я уже сам запутался:)
источник

ТЯ

Тагир Ялаев... in Machine learning
Всем доброе ночи!
Вопрос такой. Насколько вообще стоит или не стоит обращаться с просьбой проверить задание? Если меньше недели осталось, то стоит ли здесь писать?

Ссылка ниже, прошу проверить.
https://www.coursera.org/learn/mathematics-and-python/peer/4vN1n/tsientral-naia-priediel-naia-tieoriema-svoimi-rukami/review/9trAmqBfEeqEQw6rLGzUsw
источник

K

K-S in Machine learning
Pi
чем 0 не константа?
Тем, что сдвиг мы больше не можем регулировать. Ясное дело, что его может не быть, но по дефолту когда мы говорим о линейной модели, мы говорим об уравнении вида y = w0 + w1x1 + ... + wnxn + epsilon
источник

P

Pi in Machine learning
K-S
Ну по дефолту под линейной моделью мы все ж подразумеваем модель с константой
Ну я имел ввиду что 0 это такая же константа как и любое другое число на действительной оси в уравнении модели
источник

K

K-S in Machine learning
Pi
Ну я имел ввиду что 0 это такая же константа как и любое другое число на действительной оси в уравнении модели
Ок. Поправлю себя: «с ненулевым смещением»
источник

PK

Pavel Kozlov in Machine learning
K-S
Тем, что сдвиг мы больше не можем регулировать. Ясное дело, что его может не быть, но по дефолту когда мы говорим о линейной модели, мы говорим об уравнении вида y = w0 + w1x1 + ... + wnxn + epsilon
И epsilon и w0? Это разве не одно и тоже подразумевается ?
источник

AO

Alex Ololo in Machine learning
Нет ж
источник

А

Андрей in Machine learning
Проверил.
источник

K

K-S in Machine learning
Pavel Kozlov
И epsilon и w0? Это разве не одно и тоже подразумевается ?
Нет, это разные вещи. То, что я написал — истинный вид зависимости, который мы предполагаем.
А y_hat = w0_hat + w1_hat*x1 + ... + wn_hat*xn — это уже та Модель, которую мы строим
источник

А

Андрей in Machine learning
источник

PK

Pavel Kozlov in Machine learning
K-S
Нет, это разные вещи. То, что я написал — истинный вид зависимости, который мы предполагаем.
А y_hat = w0_hat + w1_hat*x1 + ... + wn_hat*xn — это уже та Модель, которую мы строим
Аа понял спасибо
источник

PK

Pavel Kozlov in Machine learning
Eplison это случайное отклонение на каждом элементе ?
источник

K

K-S in Machine learning
Pavel Kozlov
Eplison это случайное отклонение на каждом элементе ?
Да. Шум
источник

А

Андрей in Machine learning
источник

V

Valery in Machine learning
Pavel Kozlov
Eplison это случайное отклонение на каждом элементе ?
И его мат ожидание = 0
источник

VA

Vera Aleeva in Machine learning
#C6W6 отток клиентов. Если кто-то делал экономическое обоснование модели, можете помочь? Уже третий день не понимаю как посчитать экономический эффект. Подходящих формул для этого  найти не могу. И понять, как это нужно сделать правильно тоже не получается 😫
источник

AB

Andre Bolkonskiy in Machine learning
туплю чет, не подскажите?
есть матрица из 22 строк, есть массив характеристик косинусное расстояние от первой строки до следующих. тоже 22 элемента, как найти в массиве номера второго и третьего минимума?
источник

V

Vladislav-kun in Machine learning
Andre Bolkonskiy
туплю чет, не подскажите?
есть матрица из 22 строк, есть массив характеристик косинусное расстояние от первой строки до следующих. тоже 22 элемента, как найти в массиве номера второго и третьего минимума?
Второй и третий элемент отсортированного списка из 22 элементов
источник