Size: a a a

2018 November 20
DL in NLP
Neural Machine Translation by Jointly Learning to Align and Translate
(Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio, 2014)

Оригинальная статья по attention. У вас уже есть весь нужный бэкграунд, чтобы в ней разобраться.

https://arxiv.org/pdf/1409.0473.pdf
источник
DL in NLP
The Annotated Encoder-Decoder with Attention

Отличный блогпост-ноутбук с объяснением attention-механизма, комментариями к статье Bahdanau (предыдущий пост) и кодом.

https://bastings.github.io/annotated_encoder_decoder/?utm_campaign=NLP%20News&utm_medium=email&utm_source=Revue%20newsletter
источник
DL in NLP
источник
2018 November 22
DL in NLP
Напоминаю, что сегодня восьмой семинар. Его проведёт сотрудник нашей лаборатории Алексей Сорокин.
Поговорим про машинный перевод и attention. Attention - очень важная тема и не только в контексте машинного перевода. Так что приходите.

Для тех, кто не может прийти, ссылка на трансляцию: https://www.youtube.com/watch?v=_ypLO27UI1U
источник
2018 November 23
DL in NLP
На следующем семинаре мы разберём архитектуру Transformer - новый подход к обработке последовательностей, очень сильно завязанный на attention.

К сожалению, видеолекция Стэнфорда по трансформеру пока недоступна простым смертным, поэтому придётся читать.

Таким образом задание:
1) оригинальная статья: Attention is All You Need (Vaswani et. al, 2017) https://arxiv.org/pdf/1706.03762.pdf
2) квиз будет позже
3) ваши вопросы: https://goo.gl/forms/MxWeBFhhPakjKJ2R2

Обязательно прочитайте статью, архитектура довольно хитрая, но важная. На последнем семинаре будем разбирать три, наверное, самых важных статьи 2018 года и в одной из них transformer будет ключевой частью.
источник
DL in NLP
И сразу пачка дополнительных материалов:
1) Слайды с лекции Стэнфорда https://web.stanford.edu/class/cs224n/lectures/lecture12.pdf
2) Annotated transformer http://nlp.seas.harvard.edu/2018/04/03/attention.html
3) Illustrated transformer http://jalammar.github.io/illustrated-transformer/
4) Главные достижения в области обработки естественного языка в 2017 году: https://habr.com/company/ods/blog/347524/
источник
DL in NLP
Домашнее задание номер 5:
https://github.com/deepmipt/deep-nlp-seminars/blob/master/seminar_08/attentive_translation.ipynb

Мягкий дедлайн: 30 ноября
Жёсткий дедлайн: 7 декабря

Если у вас мало времени, лучше уделите его на проект - за него можно получить гораздо больше баллов.
источник
DL in NLP
По проектам:
Пишите @dropout05, если хотите встретиться на этих/следующих выходных и задать вопросы / помочь вам, если вы застряли. Задавайте любые вопросы, даже в формате "у меня ничего не сходится, что с этим делать?".
Финальная презентация проектов будет 13 декабря. Соответственно, это жёсткий дедлайн.
Мы постараемся организовать кодинг-сессию по проектам в следующую субботу или на выходных через неделю.
источник
2018 November 29
DL in NLP
Всем привет. Сегодня у нас с вами семинар по трансформеру. Тк лекции Стэнфорда по нему нету, то обсудим всё в подробностях. Приходите офлайн, задавайте вопросы.

P.S. Квиза по трансформеру не будет.
источник
DL in NLP
A proposal of good practices for files, folders and models architecture

Рекомендую прочитать всем, кто делает проект, и оформить его так. И рекомендации достаточно общие, так что не важно, деаете вы проект на tf/pytorch/etc.

https://blog.metaflow.fr/tensorflow-a-proposal-of-good-practices-for-files-folders-and-models-architecture-f23171501ae3
источник
DL in NLP
Ссылка на трансляцию:
https://youtu.be/KMgJFptbNlM

Сегодня начнём трансляцию минут на 5-10 пораньше, чтобы отладить возможные проблемы со звуком. Если кто-то поможет с фидбеком, будет очень классно.
источник
2018 November 30
DL in NLP
Слайды с предыдущего семинара
источник
DL in NLP
"2018 is the year of transfer learning in NLP". Следовательно, на следующем семинаре будем обсуждать вот эти три статьи:

Deep contextualized word representations [Peters et al., 2018] https://arxiv.org/pdf/1802.05365.pdf
Universal Language Model Fine-tuning for Text Classification [Howard and Ruder, 2018] https://arxiv.org/pdf/1801.06146.pdf
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [Devlin et al., 2018] https://arxiv.org/abs/1810.04805

Они проще Attention is All You Need, но за один семинар так же подробно мы их разобрать не успеем. Так что очень советую прочитать их дома, у вас уже есть весь необходимый бэкграунд.

Квиз может быть будет, а может быть и нет.
источник
2018 December 02
DL in NLP
Статья от авторов статьи ULMfit

http://nlp.fast.ai/classification/2018/05/15/introducting-ulmfit.html

А также пара видео, которые могут помочь лучше разобраться в подходе:
https://youtu.be/gbceqO8PpBg?t=1h23m30s
https://youtu.be/h5Tz7gZT9Fo?t=16m40s
источник
2018 December 03
DL in NLP
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing

Статья гугла про релиз кода BERT. В конце есть ссылка, чтобы поиграться с ним в colab.

https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
https://colab.sandbox.google.com/github/tensorflow/tpu/blob/master/tools/colab/bert_finetuning_with_cloud_tpus.ipynb
источник
DL in NLP
BERT Explained: State of the art language model for NLP

А теперь более содержательная статья

https://towardsdatascience.com/bert-explained-state-of-the-art-language-model-for-nlp-f8b21a9b6270
источник
2018 December 04
DL in NLP
The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)

Только вчера вышла статья от автора Illustrated Transformer. Обязательно прочитайте перед семинаром.

https://jalammar.github.io/illustrated-bert/
источник
DL in NLP
Вы ждали этого, вы боялись этого, но этот момент настал.

Табличка с рейтингом: https://docs.google.com/spreadsheets/d/1qpzSVHdIWeZRfIYcbaRmC-vhWev-krJiWG8PQsAxoQU/edit#gid=0

Работы всё ещё проверяются, но если у вас не проверено ни одной (и при этом сделано больше одной), пишите nlp_course@ipavlov.ai
источник
2018 December 06
DL in NLP
Тут на NeurIPS, проходящей сейчас в Монреале, отличное выступление насчёт unsupervised learning. И про NLP тоже есть.

https://www.facebook.com/nipsfoundation/posts/795861577420073/
источник
DL in NLP
Приходите на семинар, сегодня обсуждаем три самых главных статьи по NLP 2018 года

Ссылка на трансляцию будет позже
источник