Size: a a a

Machine learning

2020 July 04

М

Манкурт Кобейн... in Machine learning
Sergey Salnikov
на курсере в его курсе "теорвер для начинающих" есть видео семинаров, но там разбор задач, которые самому не решить, это скорее лекция по практике
В этом проблема всех площадок:
>За 5 минут мы расскажем вам о том, как рисуют коней:
>"Конь состоит из лап, тела, головы и хвоста"
>Практика
>Нарисуйте фотореалистичного коня с нуля
источник

М

Манкурт Кобейн... in Machine learning
Хочу себе такой плакат!
источник

V

Valery in Machine learning
Есть только 1 фотка в плохом кач-ве, надо искать у физтехов оригинал
источник

V

Valery in Machine learning
источник

М

Манкурт Кобейн... in Machine learning
Благодарю! Надо будет засесть в ps, эту возьму за референс
источник

AB

Andrew Buccellati in Machine learning
Их можно где-то купить?
источник

IB

Ilya Brodskiy in Machine learning
K-S
В градиентном бустинге на каждой новой итерации предсказываются значения антиградиента, оптимизируемой нами функции. В случае использования квадратичного лосса в задаче регрессии производная у нас как раз и будет равняться привычному нами остатку (домноженному на -2 только). В случае же, например, решения задачи бинарной классификации мы уже будем приближать антиградиент логлосса на каждой итерации.

Потому собственно бустинг и градиентный
То есть мы получается новый алгоритм всегда обучаем на разности между правильным ответом и ошибкой предыдущего алгоритма, но только за один шаг градиентного спуска?
источник

SS

Sergey Salnikov in Machine learning
b(n+1) улучшает не b(n), а a(n) = sum w b(n)
источник

IB

Ilya Brodskiy in Machine learning
Sergey Salnikov
b(n+1) улучшает не b(n), а a(n) = sum w b(n)
Если не затруднит можно словами?)
источник

SS

Sergey Salnikov in Machine learning
b - забовый алгоритм, a - наше решение, оно строится как сумма (с весами) базовых алгоритом. каждый следующий базовый алгоритм улучшает не предыдущий базовый алгоритм, а всё наше решение (сумма всех предыдущих базовых)
источник

MZ

Meirlen Zhumanov in Machine learning
источник

IB

Ilya Brodskiy in Machine learning
Sergey Salnikov
b - забовый алгоритм, a - наше решение, оно строится как сумма (с весами) базовых алгоритом. каждый следующий базовый алгоритм улучшает не предыдущий базовый алгоритм, а всё наше решение (сумма всех предыдущих базовых)
А, понял, спасибо
А зачем тогда градиентный спуск?
Обучали бы деревья/регрессии на разности между правильным ответом и суммой прогнозов предыдущих алгоритмов....?
источник

I

Ibp in Machine learning
Ilya Brodskiy
А, понял, спасибо
А зачем тогда градиентный спуск?
Обучали бы деревья/регрессии на разности между правильным ответом и суммой прогнозов предыдущих алгоритмов....?
по видимому для оптимизации обучения: чтобы не случайным образом подбирались веса, а в заданном направлении. ибо каждый градиент имеет направление
источник

IB

Ilya Brodskiy in Machine learning
Ibp
по видимому для оптимизации обучения: чтобы не случайным образом подбирались веса, а в заданном направлении. ибо каждый градиент имеет направление
Так..а что все таки оптимизирует градиентный спуск в градиентом бустинге?
Веса при алгоритмах, параметры в самих алгоритмах?
источник

I

Ibp in Machine learning
веса
источник

I

Ibp in Machine learning
но помоему не алгоритмов а данным из обучаемого набора
источник

IK

Ivan Krokhalyov in Machine learning
Ilya Brodskiy
Так..а что все таки оптимизирует градиентный спуск в градиентом бустинге?
Веса при алгоритмах, параметры в самих алгоритмах?
Веса при алгоритмах
источник

IK

Ivan Krokhalyov in Machine learning
Сначала строится отдельное дерево, потом спуском подбирается вес который соответствует этому дереву.
Веса подбираются не на все деревья сразу, а жадным путем по одному
источник

K

K-S in Machine learning
Ilya Brodskiy
То есть мы получается новый алгоритм всегда обучаем на разности между правильным ответом и ошибкой предыдущего алгоритма, но только за один шаг градиентного спуска?
В градиентном бустинге мы совершаем градиентный спуск в пространстве базовых алгоритмов. Добавление каждого нового базового алгоритма — это эдакое обновление нашей общей композиции алгоритмов. Каждый базовый алгоритм при этом на каждой итерации приближает вектор антиградиента.
источник

Е

Егор in Machine learning
Добрый день.
2 курс, 3-я неделя. sklearn.case_part2
На этапе обучения Pipline:
"estimator.fit(train_data, train_labels)"
выдаётся ошибка:
'numpy.ndarray' object has no attribute 'iloc'
источник