Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2020 August 26

K

Kamoliddin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Переслано от Kamoliddin
источник

SS

Sergey Shushkov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Dan • Captain
300кк/наносек же :)
Это отсылка на одного известного товарища из х5 и его собесы с хуавей
источник

П

Павел in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Sergey Shushkov
Это отсылка на одного известного товарища из х5 и его собесы с хуавей
Видимо, не проникся духом компании... Бывает
источник

SS

Sergey Shushkov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Павел
Видимо, не проникся духом компании... Бывает
Скорее сыграла разность менталитетов.
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ВСем привет! читаю учебник по машинному обучению и столкнулся с небольшим непониманием
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Автор пишет

- Увеличение числа соседей приводит к сглаживанию границы принятия решений - То есть чем больше соседей тем более гладкая граница
- Более гладкая граница соответствует более простой модели - чем граница "глаже" тем модель проще. То есть чем больше соседей тем проще модель.
- использование нескольких соседей соответствует высокой сложности модели, а использование большого количества соседей соответствует низкой сложности модели - вот тут то и путаница.

то ли я тупой то ли в книге ошибка/опечатка
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
увеличение числа соседей усложняет модель и сглаживает границу или упрощает ее?
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
насчет того что сказано что это рисунок 2.1 мне кажется что это опечатка ибо он в совершенно другой главе и там изображено совсем другое
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Nursultan
увеличение числа соседей усложняет модель и сглаживает границу или упрощает ее?
Понятие "сложности модели" в основном используется в контексте параметрических моделей - таких, обучение которых сводится к подгону параметров под данные. Это, например, линейные модели и нейронки, где выучиваются коэффициенты, или древесные модели, где выучиваются бинарные решающие правила (по какому признаку и по какому его значению нынче разветвиться).
И в таких моделях чем больше параметров, тем больше у модели возможностей подогнаться под данные, а значит, тем более сложную границу модель может выучить, но и тем больше возможность оверфитнуться. В этом смысле, чем больше параметров, тем сложнее модель, тем больше обучения и переобучения.

А метод ближайших соседей - это непараметрическая модель, в том смысле, что её обучение не сводится к изменению параметров. Вообще, у knn обучаемых параметров вообще нет, а есть только гиперпараметры - число соседей и метрика расстояния. Соответственно, связка "число параметров - сложность модели" для knn вообще не применима.
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Понятие "сложности модели" в основном используется в контексте параметрических моделей - таких, обучение которых сводится к подгону параметров под данные. Это, например, линейные модели и нейронки, где выучиваются коэффициенты, или древесные модели, где выучиваются бинарные решающие правила (по какому признаку и по какому его значению нынче разветвиться).
И в таких моделях чем больше параметров, тем больше у модели возможностей подогнаться под данные, а значит, тем более сложную границу модель может выучить, но и тем больше возможность оверфитнуться. В этом смысле, чем больше параметров, тем сложнее модель, тем больше обучения и переобучения.

А метод ближайших соседей - это непараметрическая модель, в том смысле, что её обучение не сводится к изменению параметров. Вообще, у knn обучаемых параметров вообще нет, а есть только гиперпараметры - число соседей и метрика расстояния. Соответственно, связка "число параметров - сложность модели" для knn вообще не применима.
ну так если эта связка не применима зачем о ней написали в учебнике?
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Увеличение числа соседей совершенно точно сглаживает границу.
А называть это упрощением или усложнением - вопрос философский. Лично я бы сказал, что сложность модели не изменилось, т.к. число гиперпараметров осталось тем же, и в памяти модели хранятся всё те же точки.
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Nursultan
ну так если эта связка не применима зачем о ней написали в учебнике?
С другой стороны, можно считать, что "сложность модели" = "сложность выучиваемой ею границы".
И тогда увеличение числа соседей => более простая граница => сложность модели меньше.
И в этом смысле автор написал всё правильно.
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
С другой стороны, можно считать, что "сложность модели" = "сложность выучиваемой ею границы".
И тогда увеличение числа соседей => более простая граница => сложность модели меньше.
И в этом смысле автор написал всё правильно.
ааа
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
С другой стороны, можно считать, что "сложность модели" = "сложность выучиваемой ею границы".
И тогда увеличение числа соседей => более простая граница => сложность модели меньше.
И в этом смысле автор написал всё правильно.
то есть чем проще рельеф границы тем проще сама модель?
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
> использование нескольких соседей соответствует высокой сложности модели, а использование большого количества соседей соответствует низкой сложности модели - вот тут то и путаница.

Это суждение, которое тебе не понравилось - верное, если понимать сложность в том смысле, в котором я написал в предыдущем сообщении.
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Nursultan
то есть чем проще рельеф границы тем проще сама модель?
Мне кажется, автор имел в виду именно это.
Но вообще я предлагаю отказаться от понятия "сложность", которое какое-то слишком философское, и использовать вместо этого что-то вроде "выразительной силы",
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
> использование нескольких соседей соответствует высокой сложности модели, а использование большого количества соседей соответствует низкой сложности модели - вот тут то и путаница.

Это суждение, которое тебе не понравилось - верное, если понимать сложность в том смысле, в котором я написал в предыдущем сообщении.
спасибо! теперь понятно
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Чем больше разных заковыристых границ модель может выучить, тем более выразительной её можно считать.
источник

N

Nursultan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Чем больше разных заковыристых границ модель может выучить, тем более выразительной её можно считать.
спасибо за помощь нубу)) при встрече с меня кружка))
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Чем больше разных заковыристых границ модель может выучить, тем более выразительной её можно считать.
В параметрических моделях эта выразительная сила обычно коррелирует с числом параметров. Но она зависит не только от них, например, с увеличением регуляризации выразительная сила уменьшается при неизвестном числе параметров. В этом смысле число соседей можно рассматривать как гиперпараметр, отвечающий за регуляризацию.
источник