Size: a a a

Machine learning

2020 July 03

O

Osmu in Machine learning
да, это я идиот
источник

O

Osmu in Machine learning
пытался два часа понять, что фигня происходит, написал полноценный модель с кучей объектов, а юпитер его не ест
источник

O

Osmu in Machine learning
спасибо
источник

IE

Igor Elizarov in Machine learning
Здравствуйте
Подскажите, пожалуйста, C2W4 реализация градиентного бустинга. Уже второй день сижу, не вдупляю, что требуется сделать в первом задании (скрин прикрепил).  Нужно написать функцию, которая принимает X, y, a_(n-1) . В этой функции посчитать вектор сдвигов s. Далее здесь же обучить новый алгоритм и вернуть его функцией? Главное, что я не понимаю, это как мы находим этот алгоритм
источник

АБ

Антон Богомазов... in Machine learning
Советую пересмотреть видосы по теме, там кажется девушка демонстровала то, как вс е работает
источник
2020 July 04

IB

Ilya Brodskiy in Machine learning
Всем привет!
по градиентному бустингу тоже вопрос
вот в лекции говорится, что нам для каждого нового алгоритма b(x) нужно находить градиентным спуском значения, которые он должен прогнозировать,
вопрос зачем?
мы знаем значение целевой переменной Yi, мы знаем сумму прогнозов всех предыдущих алгоритмов. Очевидно, что таргет для нового алгоритма - это разность между целевым таргетом Yi и суммой предыдущих прогнозов

ну то есть значение целевой переменной для одного объекта, скажем = 10 (задача регрессии)
первый алгоритм дал прогноз 6, значит таргет для второго 10-6 = 4
второй дал 3, значит таргет для третьего 10 - 6 - 3 = 1 и.т.д.
зачем градиентный спуск тут? в чем не прав? :)
источник

ЕТ

Евгений Томилов... in Machine learning
Ilya Brodskiy
Всем привет!
по градиентному бустингу тоже вопрос
вот в лекции говорится, что нам для каждого нового алгоритма b(x) нужно находить градиентным спуском значения, которые он должен прогнозировать,
вопрос зачем?
мы знаем значение целевой переменной Yi, мы знаем сумму прогнозов всех предыдущих алгоритмов. Очевидно, что таргет для нового алгоритма - это разность между целевым таргетом Yi и суммой предыдущих прогнозов

ну то есть значение целевой переменной для одного объекта, скажем = 10 (задача регрессии)
первый алгоритм дал прогноз 6, значит таргет для второго 10-6 = 4
второй дал 3, значит таргет для третьего 10 - 6 - 3 = 1 и.т.д.
зачем градиентный спуск тут? в чем не прав? :)
Мы не находим градиентным спуском именно значения. Мы спускаемся по функционалу ошибки, которая рассчитывается на основе реальных и предсказанных значений.
источник

IB

Ilya Brodskiy in Machine learning
а что мы градиентным спуском находим тогда?
источник

ЕТ

Евгений Томилов... in Machine learning
Ilya Brodskiy
а что мы градиентным спуском находим тогда?
Параметры, соответствующие минимуму (желательно, глобальному) оптимизируемой функции ошибки.
источник

ЕТ

Евгений Томилов... in Machine learning
Ну, а, строго говоря, мы находим экстремум оптимизируемой функции.
источник

K

K-S in Machine learning
Ilya Brodskiy
Всем привет!
по градиентному бустингу тоже вопрос
вот в лекции говорится, что нам для каждого нового алгоритма b(x) нужно находить градиентным спуском значения, которые он должен прогнозировать,
вопрос зачем?
мы знаем значение целевой переменной Yi, мы знаем сумму прогнозов всех предыдущих алгоритмов. Очевидно, что таргет для нового алгоритма - это разность между целевым таргетом Yi и суммой предыдущих прогнозов

ну то есть значение целевой переменной для одного объекта, скажем = 10 (задача регрессии)
первый алгоритм дал прогноз 6, значит таргет для второго 10-6 = 4
второй дал 3, значит таргет для третьего 10 - 6 - 3 = 1 и.т.д.
зачем градиентный спуск тут? в чем не прав? :)
В градиентном бустинге на каждой новой итерации предсказываются значения антиградиента, оптимизируемой нами функции. В случае использования квадратичного лосса в задаче регрессии производная у нас как раз и будет равняться привычному нами остатку (домноженному на -2 только). В случае же, например, решения задачи бинарной классификации мы уже будем приближать антиградиент логлосса на каждой итерации.

Потому собственно бустинг и градиентный
источник

Х

Хэнк in Machine learning
Привет ребята, проверьте пожалуйста работу, буду благодарен за подмеченные недостатки или что угодно) C2W2 https://www.coursera.org/learn/supervised-learning/peer/kfDUX/linieinaia-rieghriessiia-pierieobuchieniie-i-rieghuliarizatsiia/review/fXOoGr3FEeqbJRIvuXA62Q
источник

NS

Nikita Shaburov in Machine learning
источник

АБ

Антон Богомазов... in Machine learning
Тоже оч прошу, раз такое дело, уже 4 курс заканчиваю, а за второй сертификата нет до сих пор) https://www.coursera.org/learn/supervised-learning/peer/kfDUX/linieinaia-rieghriessiia-pierieobuchieniie-i-rieghuliarizatsiia/review/kflcq70WEeqzNQo79GymAw
источник

V

Valery in Machine learning
Вот уже и по 2 фидбека каждому)))
источник

V

Valery in Machine learning
А нет, по одному
источник

АБ

Антон Богомазов... in Machine learning
Спасибо, добрый человек) На днях проверил несколько десятков, чтобы пул ожидающих сократить, но на пользу мне это не пошло :D
источник

VZ

Valeriy Zubairov in Machine learning
Мне показалось, что курсера себя странно ведет в последнее время на таких проверках. Она подкидывает работы мартовские и февральские почему-то
источник

VP

Vladimir Podlessky in Machine learning
Всем доброго времени, а у вас не было проблем с оплатой?
У меня на карте не хватало денег на оплату курса. Затем добавил денег на карту для интернет оплат. И после этого coursera дополнительно не снимала деньги, а теперь не пропал доступ к курсу.
Соответственно вопрос, были ли у кого-то так? И ждать ли повторной оплаты или писать в поддержку?
источник

VZ

Valeriy Zubairov in Machine learning
потом повторно попробует списать
источник