Size: a a a

Natural Language Processing

2020 July 15

MT

Mikhail Tikhomirov in Natural Language Processing
Зачем мне приложение, нужна статья.
источник

D

Den in Natural Language Processing
Mikhail Tikhomirov
У них есть статья с подробным разбором подхода?
только то что на медиуме, а так руки связаны стодолларовыми купюрами
источник

SP

Sebastian Pereira in Natural Language Processing
Ну, понятно, как это можно реализовать с костылями.
источник

D

Den in Natural Language Processing
жадные слишком
источник

D

Den in Natural Language Processing
Sebastian Pereira
Ну, понятно, как это можно реализовать с костылями.
я могу только предположить способ с обёрткой модели
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Если честно, даже ко многим академическим статьям часто много вопросов, нужно время, чтобы их результаты подтвердились. Статьи на медиуме могут быть полезны с практической точки зрения, но с точки зрения научной ценности - такое себе.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Бывают конечно исключения, но я говорю в общем и имхо
источник

D

Den in Natural Language Processing
плюс если дело коснётся ещё шага влево - более/менее детальный текст это тоже проблема, так как сам GPT-2, даже с костылями тупо не имеет такой возможности, это надо подключать что-то вроде PPLM который завязан на скриптах, что не есть гуд для colab
источник

D

Den in Natural Language Processing
Mikhail Tikhomirov
Если честно, даже ко многим академическим статьям часто много вопросов, нужно время, чтобы их результаты подтвердились. Статьи на медиуме могут быть полезны с практической точки зрения, но с точки зрения научной ценности - такое себе.
но, собсно, когда пилишь инструмент как-то на научность статей фиолетово, главное работоспособность
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Без научности заявлять про гарантии - такое себе
источник

CT

Cookie Thief in Natural Language Processing
Вообще работа с длинными текстами - тот ещё кек, есть целый ряд статей, в которых пытаются в той или иной степени побороть забывчивость моделей.
А про контроль генерации - есть шикарный pplm, хз почему про него забывают(
источник

D

Den in Natural Language Processing
Mikhail Tikhomirov
Без научности заявлять про гарантии - такое себе
Работает - отлично, не работает - нужен другой метод
источник

D

Den in Natural Language Processing
Cookie Thief
Вообще работа с длинными текстами - тот ещё кек, есть целый ряд статей, в которых пытаются в той или иной степени побороть забывчивость моделей.
А про контроль генерации - есть шикарный pplm, хз почему про него забывают(
см. ответ выше
источник

CT

Cookie Thief in Natural Language Processing
Den
см. ответ выше
в чем проблема пплм? что его не соизволили в красивом виде написать?
источник

D

Den in Natural Language Processing
Den
плюс если дело коснётся ещё шага влево - более/менее детальный текст это тоже проблема, так как сам GPT-2, даже с костылями тупо не имеет такой возможности, это надо подключать что-то вроде PPLM который завязан на скриптах, что не есть гуд для colab
вот ещё раз для тех кому трудно пролистать вверх
источник

D

Den in Natural Language Processing
если бы он подключался и настраивался как transformers (инлайном) было бы замечательно
источник

CT

Cookie Thief in Natural Language Processing
возьми и напиши, в чем проблема
источник

D

Den in Natural Language Processing
а я без понятия как его отвязать от скриптов
источник

CT

Cookie Thief in Natural Language Processing
я нас на проекте сейчас своя версия пплм используется, и все там прекрасно реализовывается
источник

SP

Sebastian Pereira in Natural Language Processing
Cookie Thief
в чем проблема пплм? что его не соизволили в красивом виде написать?
Как она с русской gpt2 заработает?
источник