Size: a a a

Machine learning

2020 May 24

P

Pi in Machine learning
Ivan Krokhalyov
а почему веса это константы? значения признаков как раз константы
Потому что веса не меняются?
источник

P

Pi in Machine learning
Andrey 🦉 Kovalchuk
«является линейной относительно неизвестных параметров»
Ясно
источник

TK

Timur Kapkaev in Machine learning
Коллеги, добрый день! У кого есть возможность, проверьте, пожалуйста, C1W4, по ссылке https://www.coursera.org/learn/mathematics-and-python/peer/4vN1n/tsientral-naia-priediel-naia-tieoriema-svoimi-rukami/review/QljG350gEeq6qhLo8FkBgw
источник

TK

Timur Kapkaev in Machine learning
заранее спасибо!
источник

P

Pi in Machine learning
В общем, если параметры модели ищутся как в линейной модели, то модель называется линейной
источник

P

Pi in Machine learning
Ivan Krokhalyov
а почему веса это константы? значения признаков как раз константы
Почему значение признаков константы? Вы говорите про поиск значения весов?
источник

IK

Ivan Krokhalyov in Machine learning
да
источник

IK

Ivan Krokhalyov in Machine learning
линейную регресиию от нелинейной отличает вид зависимости от вектора параметров.
например линейная регрессия записывается только так : y=(w, f(x))
нелинейная позволяет какие то преобразования над вектором весов y=( g(w), f(x))
источник

IK

Ivan Krokhalyov in Machine learning
да, если прологарифмировать веса типа y=w0 +log(w1) *x1, то это уже называется нелинейная регрессия, несмотря(!!) на то что можно переобозначить и сделать линейную по новым весам p0=w0, p1=log(w1)
источник

AO

Alex Ololo in Machine learning
спасиб ребят. тоже думал ток про признаки а не веса до сего разговора)😳
источник

I

Ibp in Machine learning
Ivan Krokhalyov
да, если прологарифмировать веса типа y=w0 +log(w1) *x1, то это уже называется нелинейная регрессия, несмотря(!!) на то что можно переобозначить и сделать линейную по новым весам p0=w0, p1=log(w1)
кстати, если сделать вот такую вот замену p1=log(w1) то там получается вроде другой результат, чем если не менять. дело в том, что значения, что для линейной, что нелинейной регрессии одназначно поучаются аналитически из метода наименьших квадратов. ну у меня, по крайней мере разница была, хоьч мог и где то ошибиться в рассчетах
источник

IK

Ivan Krokhalyov in Machine learning
да, возможно, хотя б потому что не допускается w1<=0, пример вообще взят с потолка)
источник

P

Pi in Machine learning
Из воронцова
источник

P

Pi in Machine learning
Различают математическую модель и регрессионную модель. Математическая модель предполагает участие аналитика в конструировании функции, которая описывает некоторую известную закономерность. Математическая модель является интерпретируемой — объясняемой в рамках исследуемой закономерности. При построении математической модели сначала создаётся параметрическое семейство функций, затем с помощью измеряемых данных выполняется идентификация модели — нахождение её параметров. Известная функциональная зависимость объясняющей переменной и переменной отклика — основное отличие математического моделирования от регрессионного анализа. Недостаток математического моделирования состоит в том, что измеряемые данные используются для верификации, но не для построения модели, вследствие чего можно получить неадекватную модель. Также затруднительно получить модель сложного явления, в котором взаимосвязано большое число различных факторов.

Регрессионная модель объединяет широкий класс универсальных функций, которые описывают некоторую закономерность. При этом для построения модели в основном используются измеряемые данные, а не знание свойств исследуемой закономерности. Такая модель часто неинтерпретируема, но более точна. Это объясняется либо большим числом моделей-претендентов, которые используются для построения оптимальной модели, либо большой сложностью модели. Нахождение параметров регрессионной модели называется обучением модели.

Недостатки регрессионного анализа: модели, имеющие слишком малую сложность, могут оказаться неточными, а модели, имеющие избыточную сложность, могут оказаться переобученными.

Примеры регрессионных моделей: линейные функции, алгебраические полиномы, ряды Чебышёва, нейронные сети без обратной связи, например, однослойный персептрон Розенблатта, радиальные базисные функции и прочее.

И регрессионная, и математическая модель, как правило, задают непрерывное отображение.
источник

Б

Бенджамин in Machine learning
Поскажите пж, как сделать так, чтобы при изменении элементов массива тут изменялись и переменные, из которых изначально этот массив был создан
источник

I

Ibp in Machine learning
Ivan Krokhalyov
да, возможно, хотя б потому что не допускается w1<=0, пример вообще взят с потолка)
там еще для рассчетов производная от сложной функции используется, а если свести модель к линейной, пропадает умножение на прозводные функций, цепное правило или как там
источник

P

Pi in Machine learning
Ivan Krokhalyov
линейную регресиию от нелинейной отличает вид зависимости от вектора параметров.
например линейная регрессия записывается только так : y=(w, f(x))
нелинейная позволяет какие то преобразования над вектором весов y=( g(w), f(x))
Согласен. Но В задании указан не принцип построения модели, а сама модель
источник

P

Pi in Machine learning
Ibp
там еще для рассчетов производная от сложной функции используется, а если свести модель к линейной, пропадает умножение на прозводные функций, цепное правило или как там
Это относится к алгоритму нахождения параметров
источник

I

Ibp in Machine learning
да
источник

P

Pi in Machine learning
Вопрос звучал по другому
источник