Пачка интересных (мне) статей (вам) на выходные:
A La Carte Embedding: Cheap but Effective Induction of Semantic Feature Vectors, Khodak et al. [Princeton], 2018
Почти бесплатный способ получать эмбеддинги для OOV-слов из ваших готовых классических эмбеддингов
Cross-lingual Language Model Pretraining, Lample & Conneau [FAIR], 2019
BERT для машинного перевода и другие штуки. Как-то пропустил эту статью, нужно было бы обсудить её на семинаре про unsupervised машинный перевод.
How to Fine-Tune BERT for Text Classification?, Sun et al. [Fudan University], 2019
Название говорит само за себя.
Training Tips for the Transformer Model, Popel & Bojar [Charles University], 2018
Большая статья о том, как правильно варить трансформеры. Я бы не верил им во всех пунктах, по-моему местами там было что-то спорное, но исследование очень полезное.