Size: a a a

2019 August 06
DL in NLP
источник
DL in NLP
Кстати всем спасибо, кто пришёл на митап из этого канала. Вы классные. Не со всеми успел поговорить, но много кого видел.
источник
2019 August 07
DL in NLP
Вчера увидел новую статью от Alexander Rush
И она по unsupervised суммаризации

Simple Unsupervised Summarization by Contextual Matching
Zhou et Rush [Harvard]
arxiv.org/pdf/1907.13337v1.pdf
источник
DL in NLP
источник
2019 August 08
DL in NLP
#rl
Сегодня занятия по RL не будет. Устроим голосовалку в чате, когда его провести.
источник
2019 August 09
DL in NLP
Завтра в ШАДе у нас будет аж два события: семинар по RL и reading club по интерпретации BERT.
Я уже внёс в списки тех, кто участвует в summer camp, кто-то может добавиться ещё.
Время будет сообщено позже: ориентируйтесь на 12-15 часов.

Форма для охраны. Закроется в 12:00, торопитесь. Ещё у нас маленькая аудитория (Сорбонна, а не Оксфорд), надеюсь что вас будет не очень много)

https://forms.office.com/Pages/ResponsePage.aspx?id=DQSIkWdsW0yxEjajBLZtrQAAAAAAAAAAAAMAAKZ1i4JUQlBMQURTNFRIVksxT1lFUDBSUEgzQjdHQy4u
источник
DL in NLP
PyTorch 1.2 и TorchText 0.4 🎉
pytorch.org/blog/pytorch-1.2-and-domain-api-release

В PyTorch:

nn.Transformer
nn.TransformerEncoder
nn.TransformerEncoderLayer

etc.

Поддержка tensorboard вышла из статуса экспериментальной. Просто используйте torch.utils.tensorboard

В torchtext завезли больше встроенных датасетов и туториалов и улучшили поддержку torch.data.dataset
источник
DL in NLP
Оказывается, у RASA есть свой research blog. Они попытались ускорить берт с помощью квантизации. Вообще довольно хорошая статья с обзором методов сжатия, почитайте.

Compressing BERT for faster prediction
blog.rasa.com/compressing-bert-for-faster-prediction-2

Спойлер: не смогли, но скорее всего всё дело в TF Lite
источник
DL in NLP
Статьи, которые будут разобраны на reading club.
Кто хочет прийти - почитайте.
источник
DL in NLP
Некоторые статьи по анализу того, как работает BERT. Наверное, неплохо было бы их разобрать.

Visualizing and Measuring the Geometry of BERT
arxiv.org/pdf/1906.02715.pdf

Right for the Wrong Reasons: Diagnosing Syntactic Heuristics in Natural Language Inference
arxiv.org/abs/1902.01007

Probing Neural Network Comprehension of Natural Language Arguments
arxiv.org/abs/1907.07355

How multilingual is Multilingual BERT?
arxiv.org/pdf/1906.01502.pdf

BERT Rediscovers the Classical NLP Pipeline
arxiv.org/abs/1905.05950

What Does BERT Look At? An Analysis of BERT's Attention
arxiv.org/abs/1906.04341
источник
DL in NLP
Завтра встречаемся по RL в 12
По reading club в 15:40

ШАД, Сорбонна

Будет организована трансляция на twitch, но не готов гарантировать, что она будет работать хорошо.
источник
DL in NLP
Гайд по тому, как конвертировать модели из TF в PyTorch от, наверное, самой опытной в этом команды - 🤗

Переходите на 🔥сторону.

medium.com/huggingface/from-tensorflow-to-pytorch-265f40ef2a28
источник
2019 August 10
DL in NLP
#rl

Как обещал, упрощённая версия задания по PPO. Буду рад фидбэку - что слишком сложно, что слишком просто, где плохое описание.
источник
DL in NLP
NLP reading club starts
источник
DL in NLP
источник
2019 August 11
DL in NLP
Всвязи с окончанием курса по #rl . Было весело.
источник
2019 August 14
DL in NLP
На архиве появилась какая-то дичь. Новый лосс для обучения генерации текста. Выглядит интересно.
источник
DL in NLP
источник
DL in NLP
Facebook. Connecting people.

Пост про их успехи в машинном переводе, RoBERTA и SuperGLUE

ai.facebook.com/blog/new-advances-in-natural-language-processing-to-better-connect-people
источник
2019 August 15
DL in NLP
How to Fine-Tune BERT for Text Classification?
Sun et al. Fudan University
arxiv.org/pdf/1905.05583.pdf

В статье пытаются смешать BERT и ULMfit. Получается довольно средне, но в конце концов они обходят ULMfit на почти всех датасетах (хоть и не сильно). В статье много хаков и мало убедительных ablation studies, но это best we have. На удивление мало статей, рассказывающих о том, как правильно применять BERT.
источник