Size: a a a

Machine learning

2021 January 12

SA

Svetlana Astafyeva in Machine learning
Sergey Djuja
В задании:
Линейная регрессия и стохастический градиентный спуск

Предлагают:

Отмасштабируйте столбцы матрицы X, вычтя из каждого значения среднее по соответствующему столбцу и поделив результат на стандартное отклонение

Зачем нам предлагают это сделать?
Это чем-то поможет сделать стохастический градиентный спуск??
источник

SA

Svetlana Astafyeva in Machine learning
Там прямо в самом начале файла объясняется, зачем надо масштабировать признаки
источник

ИБ

Илья Биро in Machine learning
Плюс это выравнивает значимость признаков в модели, условно линейная модель в одном случае она будет сравнивать величины в диапазоне -0.1 до +0.5 с величинами от 5000 до 10000. Интуитивно понятно становится что первая величина будет крайне мало влиять на функционал ошибки, хотя она может быть довольно важной.
Масштабирование приводит к балансу между влиянием признаков
источник

i

igor in Machine learning
Alexey
Я правильно понимаю, что регуляризация нужна для уменьшения дисперсии оценок, поэтому большие значения регрессоров это плохо? но странно все равно - большие значения == высокая дисперсия?
Вряд ли
источник

ИБ

Илья Биро in Machine learning
Она конечно может выровнять значимость весами, но лучше провести эту процедуру предварительно, чтобы облегчить жизнь и себе и минимизатору:)
источник

A

Alexey in Machine learning
Артём Глазунов
Не регрессоры растут, а коэффициенты, веса w
да, веса конечно. просто - почему растут
источник

АГ

Артём Глазунов... in Machine learning
Илья Биро
Плюс это выравнивает значимость признаков в модели, условно линейная модель в одном случае она будет сравнивать величины в диапазоне -0.1 до +0.5 с величинами от 5000 до 10000. Интуитивно понятно становится что первая величина будет крайне мало влиять на функционал ошибки, хотя она может быть довольно важной.
Масштабирование приводит к балансу между влиянием признаков
В линейных моделях веса будут балансировать, но градиентный спуск просто будет давать большие градиенты в разных направлениях, сходиться не будет. А вот в метрических, кнн, к примеру, там да, важно одинаковое влияние признаков на расстояние.
источник

A

Alexey in Machine learning
почему не падают к нулю например...
источник

DP

Dmitry Penzar in Machine learning
Alexey
да, веса конечно. просто - почему растут
не веса растут, а ошибки
источник

DP

Dmitry Penzar in Machine learning
их оценок
источник

A

Alexey in Machine learning
но штрафуем мы за высокие веса
источник

АГ

Артём Глазунов... in Machine learning
Dmitry Penzar
их оценок
Да, именно оценки
источник

DP

Dmitry Penzar in Machine learning
так вы о чем вообще? если вы про мультиколлинеарность, то у вас обычный МНК будет давать оценки параметров с бОльшей ошибкой
источник

ИБ

Илья Биро in Machine learning
На деле все числа выше 10^3 это довольно плохой знак для вычислений, хотя бы с точи зрения оптимального расхода ресурсов при вычислении
источник

A

Alexey in Machine learning
Илья Биро
Плюс это выравнивает значимость признаков в модели, условно линейная модель в одном случае она будет сравнивать величины в диапазоне -0.1 до +0.5 с величинами от 5000 до 10000. Интуитивно понятно становится что первая величина будет крайне мало влиять на функционал ошибки, хотя она может быть довольно важной.
Масштабирование приводит к балансу между влиянием признаков
да, логично - лучше чтобы разброса в коэфф не было, но в л1 регуляризация это сумма может быть и 500+500 = 1 +999
источник

ИБ

Илья Биро in Machine learning
С точки зрения минимизации там выходит не самая благоприятная ситуация
источник

K

K-S in Machine learning
регуляризация и масштабирование признаков - это разные вещи. О чем вообще речь?
источник

SD

Sergey Djuja in Machine learning
это третья неделя, а я сейчас делаю первую )
в задании просто сказано - масштабируйте )
но спасибо, сейчас разберусь )
источник

DP

Dmitry Penzar in Machine learning
K-S
регуляризация и масштабирование признаков - это разные вещи. О чем вообще речь?
и еще зачем-то добавлена коллинеарность)
источник

A

Alexey in Machine learning
о регуляризации... и коэфф регрессии - при нестрогой мультиколл они растут, почему?
источник