Size: a a a

Natural Language Processing

2020 July 03

AK

Alexander Kukushkin in Natural Language Processing
Почему мало? Там лосс перестал падать
источник

AK

Alexander Kukushkin in Natural Language Processing
Не, примера нет
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Надо будет покапаться тогда, видимо.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Alexander Kukushkin
Почему мало? Там лосс перестал падать
Хм, у меня после первой эпохи он еще продолжал расти, мб разница в том как меняется лернинг рейт или в словаре.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
А в чем существенная разница у Slovnet от соответствующего класса у transformers?
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Жалко, конечно, что нет скрипта для конвертации в Ваш формат
источник

AK

Alexander Kukushkin in Natural Language Processing
Концептуально то же самое. Веса от Transformers можно загрузить, но надо конвертировать. В Slovnet используется стандартный TransformerEncoderLayer из PyTorch. Когда писали Transformers его не было
источник

AK

Anton Kolonin in Natural Language Processing
Если админы не сочтут за спам (а если сочтут, то просьба ограничиться предупреждением и сносом поста), то для опытного пользования предлагается графовая аналитика взаимодействий в группах в Телеграм - включая эту группу - описано тут: https://blog.singularitynet.io/reputation-system-in-aigents-supporting-telegram-groups-and-more-c43f0cf5053d (анализируется только характер и интенсивность взаимодействий без сентимента - про сентименит я отдельно постил тут раньше). Фидбек можно в личку 😊
источник

AK

Alexander Kukushkin in Natural Language Processing
Правда может быть проблема в том что в Slovnet по совету Roberta не использует input с типом токена token_type_ids
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Alexander Kukushkin
Концептуально то же самое. Веса от Transformers можно загрузить, но надо конвертировать. В Slovnet используется стандартный TransformerEncoderLayer из PyTorch. Когда писали Transformers его не было
Конвертация иногда может представлять не простую задачу xD
Спасибо за ответы!
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Alexander Kukushkin
Правда может быть проблема в том что в Slovnet по совету Roberta не использует input с типом токена token_type_ids
О, а его я использовал, хм, буду иметь в виду
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Кстати, для NER берт морозился?
источник

AK

Alexander Kukushkin in Natural Language Processing
Эмбединги да, энкодер нет
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Кстати, раз в Вашей реализации нет token_type_ids, то как Вы конвертили и запускали RuBERT? Он же обучался с использованием этих токенов. Или данные по качеству взяты от deeppavlov?
источник

AK

Alexander Kukushkin in Natural Language Processing
Ковертируем вместе с token_type_ids, выковыриваем веса с эмбедингами token_type_ids, дообучаем, получается NewsRuBert

Когда давно давно использовал чистый RuBERT, передовал token_type_ids
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Понял, спасибо :)
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Для воспроизведения видимо необходимо иметь AWS акк, правильно? Для того, чтобы скачать данные
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Или есть другой способ получить данные, без регистрации?
источник

AK

Alexander Kukushkin in Natural Language Processing
данные в яндекс.облаке, регистрация не нужна
источник

MT

Mikhail Tikhomirov in Natural Language Processing
я про строки в нотбуке:

if not exists(NE5):
   s3.download(S3_NE5, NE5)
   s3.download(S3_FACTRU, FACTRU)

и тп
источник