Size: a a a

Natural Language Processing

2020 July 15

SP

Sebastian Pereira in Natural Language Processing
Cookie Thief
я нас на проекте сейчас своя версия пплм используется, и все там прекрасно реализовывается
Русский язык?
источник

I

I Апрельский... in Natural Language Processing
а есть разница?
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Короче подводя итог и сливаясь из треда, мое мнение такого: не существует хороших генераторов текстов, которые удовлетворят человека в открытом виде и из коробки. gpt2 это не генератор текста, да и gpt3 тоже, просто последняя уж очень дорого и долго обучалась.
источник

D

Den in Natural Language Processing
> русская gpt-2
отличная шутка
источник

CT

Cookie Thief in Natural Language Processing
Sebastian Pereira
Как она с русской gpt2 заработает?
мы с англ работаем, но по идее разницы нет
источник

D

Den in Natural Language Processing
про pplm - если есть представление по отвязке от скриптов было бы здорово глянуть на ipynb с реализацией
источник

CT

Cookie Thief in Natural Language Processing
код к сожалению пока пошарить не могу
источник

D

Den in Natural Language Processing
попробуйте изолировать и пошарить
источник

SP

Sebastian Pereira in Natural Language Processing
I Апрельский
а есть разница?
Вообще, есть. Английский- аналитический язык, русский - синтетический, морфология разная и это влияет на качество текста. Gpt2 русская даёт другие результаты чем английская.
источник

SP

Sebastian Pereira in Natural Language Processing
Cookie Thief
мы с англ работаем, но по идее разницы нет
Плакать хочется от таких утверждений.
источник

D

Den in Natural Language Processing
Sebastian Pereira
Вообще, есть. Английский- аналитический язык, русский - синтетический, морфология разная и это влияет на качество текста. Gpt2 русская даёт другие результаты чем английская.
ну кроме того что она не совместима с трансформерами и токенайзер реализован через жопу
источник

I

I Апрельский... in Natural Language Processing
Mikhail Tikhomirov
Короче подводя итог и сливаясь из треда, мое мнение такого: не существует хороших генераторов текстов, которые удовлетворят человека в открытом виде и из коробки. gpt2 это не генератор текста, да и gpt3 тоже, просто последняя уж очень дорого и долго обучалась.
а хорошее замечание. я осознал, что из-за примеров я сам их воспринимаю как именно что генераторы. но не удивительно. сам опенаи так и позиционировал
источник

SP

Sebastian Pereira in Natural Language Processing
Mikhail Tikhomirov
Короче подводя итог и сливаясь из треда, мое мнение такого: не существует хороших генераторов текстов, которые удовлетворят человека в открытом виде и из коробки. gpt2 это не генератор текста, да и gpt3 тоже, просто последняя уж очень дорого и долго обучалась.
+
источник

CT

Cookie Thief in Natural Language Processing
Sebastian Pereira
Плакать хочется от таких утверждений.
pplm от языка не зависит от слова вообще, поэтому не выкупил поинт.
источник

D

Den in Natural Language Processing
а вообще мультиязычный GPT-2 вроде XLM был бы замечетелен
источник

I

I Апрельский... in Natural Language Processing
Sebastian Pereira
Вообще, есть. Английский- аналитический язык, русский - синтетический, морфология разная и это влияет на качество текста. Gpt2 русская даёт другие результаты чем английская.
да я тоже про пплм уточнил. разница в богатстве морфологии-то понятно, что влияет на языковые модели.
источник

D

Den in Natural Language Processing
Den
ну кроме того что она не совместима с трансформерами и токенайзер реализован через жопу
кстати совместимый собрать никто так и не почесался или я не нашёл
источник

AI

Andrew Ishutin in Natural Language Processing
Если речь идет про gpt-2, то есть совместимая с huggingface
источник

D

Den in Natural Language Processing
а где?
источник

AI

Andrew Ishutin in Natural Language Processing
правда, почему-то работает только на pytorch
источник