Size: a a a

Machine learning

2020 May 24

AK

Andrey 🦉 Kovalchuk... in Machine learning
Roman Nm
билинейная
но ведь билинейная «это функция от двух групп по n переменных, являющаяся однородным многочленом первой степени относительно переменных из каждой группы.»
источник

RN

Roman Nm in Machine learning
Andrey 🦉 Kovalchuk
но ведь билинейная «это функция от двух групп по n переменных, являющаяся однородным многочленом первой степени относительно переменных из каждой группы.»
И?
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Объясни, пожалуйста, где у нас вторая группа, представленная многочленом первой степени?
источник

V

Valery in Machine learning
Yaroslav Samoilov
Все правильно в задании, функция должна быть линейная относительно весов модели
Я верю, но в 90% курсов вводя 2 пункт говорят - нелинейная регрессия, хотя я встречал пару раз пометку о преобразовании признаков, типа x^2 = x_new
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Ну у нас же веса… типа, тоже вектор
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Но не многочлен же...
источник

RN

Roman Nm in Machine learning
Andrey 🦉 Kovalchuk
Объясни, пожалуйста, где у нас вторая группа, представленная многочленом первой степени?
Допустим, первая группа - это w1 и log(w1), а вторая - w0 и x
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
w1 Это же коэффициент многочлена x, а w0 свободный член - ещё один коэффициент
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Т.е. у нас не два многочлена, а один с набором коэффициентов
источник

RN

Roman Nm in Machine learning
окей, не многочлен, спорить не собираюсь.
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Я не ради спорить. Я бы понять.
источник

YS

Yaroslav Samoilov in Machine learning
Valery
Я верю, но в 90% курсов вводя 2 пункт говорят - нелинейная регрессия, хотя я встречал пару раз пометку о преобразовании признаков, типа x^2 = x_new
Ничего не могу сказать про другие курсы, в приведённом примере правильно, в курсах, которым посвящён этот чат, правильно, на сайте гуру этой специальности К.Воронцова тоже правильно, само собой)
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
А, ну тут же просто все, нет?
Единственный, изменяемый член в уравнении, x. Т.е. у нас f(x) и уже заданные в функции коэффициенты. От куда тут билинейность? Я в замешательстве.
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
На веру не принял.
источник

RN

Roman Nm in Machine learning
Andrey 🦉 Kovalchuk
А, ну тут же просто все, нет?
Единственный, изменяемый член в уравнении, x. Т.е. у нас f(x) и уже заданные в функции коэффициенты. От куда тут билинейность? Я в замешательстве.
Всё просто. Коэффициент - понятие относительное, а я иду спать.
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Я не звал. Итог уже для себя подвел. Иди.
источник

I

Ibp in Machine learning
Valery
То есть пункт 2 - линейная регрессия, это меня конфъюзит
тут иксы - это признаки константы, которые заданы датасетом, а переменные это w. поэтому линейность нужно рассматривать относительно w. все там верно написано. пс. когда вы мастерите новые признаки вы можете их в любую степень возводить, перемножать между собой или применять к ним любые другие нелинейные действия
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Ibp
тут иксы - это признаки константы, которые заданы датасетом, а переменные это w. поэтому линейность нужно рассматривать относительно w. все там верно написано. пс. когда вы мастерите новые признаки вы можете их в любую степень возводить, перемножать между собой или применять к ним любые другие нелинейные действия
А от куда такая новость? Что x - константы, а w - переменные? По всем признакам наоборот.
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Классическое определение y = w0 + w1*x
источник

AK

Andrey 🦉 Kovalchuk... in Machine learning
Христоматийное
источник