Size: a a a

Machine learning

2020 December 01

AP

Alexander Petrenko in Machine learning
George Boole
Кек, так случайное угадывание - 0.5
думаю, что не для этой задачи, там метрика f1, выборка обучающая и тестовая валидирована очень перекошено. Думаю случайное угадывание там даст в лучшем случае 0.05
источник

i

igor in Machine learning
Первый опыт какая в этом польза?
источник

K

K-S in Machine learning
как будто гпт3 от сбера пишет)
источник

SS

Sergey Salnikov in Machine learning
или гпт на подобном обучается )
источник

SS

Sergey Salnikov in Machine learning
если коротко - слишком разговорный язык, я бы сказал - чатовый. много кода (можно просто дать ссылку на гитхаб) и мало объяснений - что-зачем-почему
источник

SS

Sergey Salnikov in Machine learning
ещё смутило, что после незавершенного первого опыта (я так понимаю - в лидеры не вошёл, из полтораста) - начинаешь давать советы другим в конце
источник

K

K-S in Machine learning
Sergey Salnikov
или гпт на подобном обучается )
a, я про комментарий сверху)
источник

SS

Sergey Salnikov in Machine learning
а, ну статья на хабре ещё хуже читается. а esperanto - просто чатная фраза, в контексте, правда смысл я тоже не понял )
источник

AP

Alexander Petrenko in Machine learning
Sergey Salnikov
ещё смутило, что после незавершенного первого опыта (я так понимаю - в лидеры не вошёл, из полтораста) - начинаешь давать советы другим в конце
Спасибо за критику. Просто посыл в том, что я например, очень долго решался на то, чтобы начать учавствовать в соревах, будь то каггл или другое. По ходу участия, понял, что зря. Не нужно бояться пробовать свои силы.
Согласен, в статье не объяснено зачем и почему, но показывается как. Плюс в статье показано как можно работать с ошибками алгоритма. На курсе об этом не говорилось прямо. А это важная часть анализа.
Разговорный язык, ну может быть. Хабр это же не научная литература.
Насчёт скора - в моменте был 16-м, сейчас вроде 20-й. Если просто ещё почистить слова думаю можно 0.1 ещё добавить. А статья написана для тех у кого скор меньше 0.3. Там таких много.
источник

AP

Alexander Petrenko in Machine learning
Ну и кстати не очень ясно а что можно объяснять зачем, если мы говорим о такой предобработке как транслитерация, перевод в Нижний регистр, удаление стоп-слов, названий стран, географических объектов ..., вроде это интуитивно из контекста задачи понятно :)
источник

AP

Alexander Petrenko in Machine learning
Если есть ещё у кого какая критика - я готов получать))
источник

SS

Sergey Salnikov in Machine learning
а долго модель учится?
источник

K

Konstantin in Machine learning
источник

K

Konstantin in Machine learning
C1W4 проверьте пожалуйста
источник

VK

Vasil K in Machine learning
не могу не поделиться:
выложили в открытый доступ лекции Yann LeCun'а для NYU:
https://cds.nyu.edu/deep-learning/
источник

VK

Vasil K in Machine learning
рекомендую загуглить кто это, чтоб понять степень значимости этих лекций в открытом доступе
источник

AP

Alexander Petrenko in Machine learning
Sergey Salnikov
а долго модель учится?
Модель - одно дерево. Предобработка долгая. Вернее, есть одна операция по сопоставлению слов, где я не смог ничего придумать лучше, чем прохождение циклом. Об этом в статье написано (то что код не красивый). В общем без неё предобработка около 15-20 минут, с ней 35-40.
источник

AP

Alexander Petrenko in Machine learning
Vasil K
не могу не поделиться:
выложили в открытый доступ лекции Yann LeCun'а для NYU:
https://cds.nyu.edu/deep-learning/
👍
источник

VS

Vitaly S in Machine learning
Alexander Petrenko
Спасибо за критику. Просто посыл в том, что я например, очень долго решался на то, чтобы начать учавствовать в соревах, будь то каггл или другое. По ходу участия, понял, что зря. Не нужно бояться пробовать свои силы.
Согласен, в статье не объяснено зачем и почему, но показывается как. Плюс в статье показано как можно работать с ошибками алгоритма. На курсе об этом не говорилось прямо. А это важная часть анализа.
Разговорный язык, ну может быть. Хабр это же не научная литература.
Насчёт скора - в моменте был 16-м, сейчас вроде 20-й. Если просто ещё почистить слова думаю можно 0.1 ещё добавить. А статья написана для тех у кого скор меньше 0.3. Там таких много.
А я считаю молодец! Следующие статьи будут уже лучше, как и результат в соревах. Согласен, что писать надо меньше о себе (буквально пару предложений), и в целом стараться короче. Но кому-то эта статья точно будет интересна и это здорово!
источник

AP

Alexander Petrenko in Machine learning
Vitaly S
А я считаю молодец! Следующие статьи будут уже лучше, как и результат в соревах. Согласен, что писать надо меньше о себе (буквально пару предложений), и в целом стараться короче. Но кому-то эта статья точно будет интересна и это здорово!
Спасибо) статья вышла за ночь. Нужно было выложить как можно раньше, пока соревнование актуально. Может поэтому получилось излишне разговорно. До этого у меня на статьи уходило гораздо больше времени, но они правда были о работе различных алгоритмов из курса, а не о моем опыте.
источник