Size: a a a

2019 May 31
DL in NLP
To apply please send your CV and a brief cover letter to Prof. Milica Gasic at gasic@uni-duesseldorf.de
For any questions please contact Prof. Milica Gasic.
источник
2019 June 01
DL in NLP
Визуализация и интерпретация - это то, чего очень не хватает современному NLP

Хороший анализ BERT в блоге towardsdatascience

Deconstructing BERT: Distilling 6 Patterns from 100 Million Parameters
https://towardsdatascience.com/deconstructing-bert-distilling-6-patterns-from-100-million-parameters-b49113672f77
источник
DL in NLP
И ещё раз попрошу заполнить финальный опрос о курсе. В особенности тех, кто его не закончил.

https://forms.gle/emBq4oJW6eJdGhQx9
источник
2019 June 05
DL in NLP
Всем привет!
На последнем занятии курса мы рассказывали про идею, которую решили назвать summer camp.
Тем, кто готов - заполняйте форму https://forms.gle/i66qrS7qkindd1q58
Завтра организационное занятие.

Стоит заметить, что это не курс и о основном ориентирован на вашу самостоятельную работу.
источник
2019 June 06
DL in NLP
Сегодня будет организационная встреча summer camp

Начало в 18:00
Долгопрудный, научный переулок 4

Физтех.Цифра, аудитория 522

https://yandex.ru/maps/org/4498057178

Если у вас нет пропуска в МФТИ, возьмите паспорт
источник
2019 June 11
DL in NLP
источник
2019 June 14
DL in NLP
Всем привет!
В канале было тихо последнее время так как у меня была защита, но теперь всё закончено и интересные штуки пойдут дальше.
источник
DL in NLP
И первая ссылка, это

🌻The Best and Most Current of Modern Natural Language Processing

Пост в блоге Hugging Face, кого вы уже скорее всего знаете по репозиторию pytorch pretrained BERT
Многие из этих статей мы разбирали или затрагивали, но многие - нет. Очень советую найти 1-2 самых интересных для себя и прочитать.

https://clck.ru/GaFeo
источник
2019 June 20
DL in NLP
Может быть кому-то будет интересно:
Как написать seq2seq на статическом графе tensorflow

https://acv.aixon.co/attention_word_to_number.html#Sequence-to-Sequence-with-Attention-in-TensorFlow
источник
2019 June 28
DL in NLP
Совсем не поговорили про XLNet, хотя надо. Вот первый вброс.

https://twitter.com/eturner303/status/1143174828804857856
источник
2019 June 29
DL in NLP
Новый блогпост от автора Illustrated Transformer

A Visual Intro to NumPy and Data Representation

С одной стороны, тут, наверное, все знают numpy, но с другой, никогда не мешает повторить основы.

https://twitter.com/jalammar/status/1143799450776801280
источник
2019 July 02
DL in NLP
Миникурсу по RL быть!
О формате курса: постараемся разобрать базовые вещи в RL с максимумом практики за 1 месяц, за основу берём курс ШАДа. Это будет очень жёстко, я бы ориентировался минимум на 20 часов самостоятельной работы в неделю. Встречаться будем в Долгопрудном, только чтобы обсудить вопросы по лекции и домашкам. Будет предполагаться, что вы их уже посмотрели/сделали. Записи семинаров и трансляций скорее всего не будет, тк не считаю, что их просмотр будет хотя бы кому-то полезен.

В нашем курсе будем брать примерно по 3 лекции и соответствующих практических занятий в неделю. Разбивка получается примерно следующая:
1. MDP, value-based methods, Q-learning, табличный RL
2. Введение в deep RL, exploration vs exploitation
3. Policy gradient methods, reinforcement learning for sequence models, partially obserbed MDB
4. TRPO, PPO, DDPG, model-based RL

Пока что неделя 3 выглядит очень жёсткой, так что готовьтесь страдать.

Если будет слишком легко (нет), возьмём задачек/лекций из этого курса. Также постараюсь пригласить к нам людей, которые разбираются в RL, чтобы поговорить про всякие методы, которых нет в курсе яндекса.

Я не считаю себя хоть сколько-нибудь специалистом в RL и буду учить его вместе с вами.

К первому занятию, которое будет 11 июля смотреть первые 3 лекции и делать первые 3 домашки. Они довольно простые, но хотя бы 2 вечера я бы на них выделил.

Ещё раз ссылка на яндексовый курс:
https://github.com/yandexdataschool/Practical_RL/wiki/Practical-RL
источник
2019 July 03
DL in NLP
На курс по RL регистрироваться не обязательно, но если у вас нету пропуска на Физтех и вы будете ходить, заполните эту форму.

Удалённого посещения занятий предусмотренно не будет, тк не тот формат, но вы можете проходить курс вместе с нами и общаться в чатике. В этом случае форму заполнять не надо.

https://forms.gle/2zeD44SWNwJSaWf47
источник
2019 July 04
DL in NLP
Раз уж мы взялись за RL, вот вам статья

On the Weaknesses of Reinforcement Learning for Neural Machine Translation
Choshen et. al, The Hebrew University of Jerusalem
https://arxiv.org/pdf/1907.01752v1.pdf

Авторы утверждают, что методы RL, используемые для машинного перевода плохи. Скорее всего из-за того, что задача работает с высокоразмерным дискретным пространством (словарём), что reward’ы очень спарсовые и что в случае использования предобученной модели (как обычно и делают), практически не происходит exploration. Кроме этого они показывают, что one of the most common RL methods for MT does not optimize the expected reward.
источник
2019 July 06
DL in NLP
Забавная статья про модификацию архитектуры трансформера.

Augmenting Self-attention with Persistent Memory
Sukhbaatar et al. [FAIR]
https://arxiv.org/pdf/1907.01470v1.pdf

Интересна даже не столько сама статья, сколько сам факт того, что начало появляться всё больше вариаций трансформера. По-моему это показывает насколько трансформер стал стандартом де-факто. Сразу вспоминаются многие статьи про модификации LSTM, которые выходили в 2016-2017 годах (и не только). Почти никто из них популярен так и не стал (за исключением GRU), но интересные идеи были и, возможно, неявно они повлияли на тот же трансформер и другие работы.
источник
2019 July 10
DL in NLP
dlinnlp
Забавная статья про модификацию архитектуры трансформера.

Augmenting Self-attention with Persistent Memory
Sukhbaatar et al. [FAIR]
https://arxiv.org/pdf/1907.01470v1.pdf

Интересна даже не столько сама статья, сколько сам факт того, что начало появляться всё больше вариаций трансформера. По-моему это показывает насколько трансформер стал стандартом де-факто. Сразу вспоминаются многие статьи про модификации LSTM, которые выходили в 2016-2017 годах (и не только). Почти никто из них популярен так и не стал (за исключением GRU), но интересные идеи были и, возможно, неявно они повлияли на тот же трансформер и другие работы.
Внезапно вспомнил про туториал Writing Code for NLP Research от AllenNLP
https://github.com/allenai/writing-code-for-nlp-research-emnlp2018

Качество кода исследователей, давайте будем честны, ужасно. В лучшем случае код запускается (да, может быть и наоборот), имеет минимальную документацию и написан +- в питонячем стиле. Но читать его, разбираться в том, как он работает и в особеннсости модифицировать почти всегда невероятно сложно - быстрее написать всё с нуля. Я не могу перееоценить значение этой проблемы и очень советую всем просмотреть этот туториал. Просмотреть, если вы только начали изучать DL и в особенности, если вы уже давно пишете код.
источник
DL in NLP
pdf туториала
источник
DL in NLP
Как-то мимо меня прошла новость, что fast.ai выпустили курс по NLP
www.fast.ai/2019/07/08/fastai-nlp

Выглядит интересно, много практики и разбирают не только DL-подход. Если найду время, сам пройду, так что однозначно советую.
источник
DL in NLP
#rl Тем, кто хочет решать pacman на python3, потому что уже не 16 век.
источник
2019 July 11
DL in NLP
#rl Сегодня первый раз встречаемся по RL 🎉
С вас ожидаются 3 решённых домашки и просмотренных лекции

Время: 19:00
Место: Физтех.Цифра 522

Если у вас нету пропуска на физтех, вам нужно записаться в эту форму. Она закроется в 11:30
https://forms.gle/YveFP7hdDXSL3tCz8
источник