Size: a a a

Natural Language Processing

2021 May 20

SancheZz Мов in Natural Language Processing
Это именно разные уровни вложенности смыслов
источник

YA

Yerlan Amanzholov in Natural Language Processing
вот я тоже вижу такой эффект, использую logistic regression поверх labse для entities. С фичами из нижних слоев получается лучше
источник

v

viktor in Natural Language Processing
а куда планируете их выложить?
источник

SM

Sergei Markoff in Natural Language Processing
на сайте конфы будет
источник

K

Ksenia in Natural Language Processing
вот другая статья, там можно по ссылочкам походить - нет, сорри, старая https://www.researchgate.net/publication/335781217_Analyzing_the_Structure_of_Attention_in_a_Transformer_Language_Model
источник

MA

Muhammed Alimbetov in Natural Language Processing
спасибо, но мне надо размеченный уже дата. Если данные размеченные то было бы круто.
источник

Eg

Elena gisly in Natural Language Processing
экспортируй какие-нибудь открытые чаты из дискорда, там же уже есть разметка реакций. Или в каком плане разметка?
источник

SancheZz Мов in Natural Language Processing
Не думаю что есть какая-то закономерность, дело эксперимента
источник

SancheZz Мов in Natural Language Processing
Либо закономерность есть но никто строго не смог аргументировать,что именно так работает.только наблюдения на опыте, но у каждого он свой
источник

o

oldysty in Natural Language Processing
Привет всем. По рецептам @cointegrated https://gist.github.com/avidale/dc7a26eb3cffc90075bf100e15b5950f попробовал энкодер T5 - как эмбедер для сиамской сети для бинарной классификации. Получилось не очень хорошо, f1 около 0.81, различые берты дают около 0.89, а обучаются быстрее. Эмбеддер используется один на обе стороны, пробовал и дообучать и фризил энкодер - результаты стабильно плохие. По графикам выглядит, будто вообще не учится. Пробовал и один линейный слой сверху как в тетради, делал глубже и надстройки поверх эмбедеров и объединяющие слои. Может есть идеи почему так?
источник

SancheZz Мов in Natural Language Processing
Зато опыт хороший, спасибо за шеринг
источник

DD

David Dale in Natural Language Processing
С ходу идей не приходит (кроме того, что у t5-small тупо capacity меньше, чем у bert-base), но если покажешь свой код, могу попробовать поревьюить.
источник

o

oldysty in Natural Language Processing
Спасибо. Будет здорово. https://github.com/Promyer/rut5_siam/tree/master
Вот модель. Все остальное стандартно, батч разве что 48, а так даже Adam с теми же параметрами, токенизатор с
padding="max_length", truncation=True, max_length=128
В коде модели только по другому голова устроена, я в Readme пару слов сказал про это.
источник

DD

David Dale in Natural Language Processing
Посмотрел код, вроде всё адекватно, никаких проблем с этой архитектурой не вижу.
Думаю, что энкодер точно нужно дообучать, ибо T5 по умолчанию на mean pooling не рассчитан. Ну или, как вариант, можно вместо mean pooling сделать пулер, использующий атеншн.
источник

DD

David Dale in Natural Language Processing
А ты же использовал small модель?
Можно попробовать для сопостовимости дообучиться на cointegrated/rut5-base-multitask, у неё энкодер размером примерно с bert-base.
источник

o

oldysty in Natural Language Processing
Да, спасибо, попробую. Я использовал разные берты, в том числе и маленькие, они работали лучше. Попробую разве что подольше поучить, чтобы mean_pooling завелся.
источник

AM

Aleksandr Mester in Natural Language Processing
Друзья, подскажите, а не знает ли кто датасет, который содержит как численные и категориальные признаки, так и текстовую фичу?
источник

A

Andrey in Natural Language Processing
Титаник?
источник

AM

Aleksandr Mester in Natural Language Processing
В титанике нет полноценной текстовой фичи.
источник

A

Andrey in Natural Language Processing
источник