Size: a a a

2019 December 04
DL in NLP
Трансформеры могут в математику лучше Вольфрама (и, скорее всего, тебя тоже).

Пара интересных фактов из статьи:

При решении диффуров, разные (высоковероятные) пути в beam search соответствуют разным представлениям одного и того же решения.

Система была натренирована с использованием SymPy, но способна решать задачи, которые SymPy не может.

Подход не %100 нейронный, решения нейросети проверяются классическими системами. Но классические системы получить эти решения не могут.

twitter.com/GuillaumeLample/status/1202178956063064064
источник
DL in NLP
Написание нейросетки на нумпае позволяет действительно понять эту нейросетку, расширяет сознание и подогревает стул, на котором вы сидите. В общем очень рекомендую.

Как раз об этом книжка Grokking Deep Learning, а решения упражнений (от полносвязных сеток до эмбеддингов и LSTM) выложены на GitHub.

github.com/iamtrask/Grokking-Deep-Learning/blob/master/README.md

После этого советую попробовать написать трансформер на том же нумпае. Потому что на самом деле архитектура проще той же LSTM, но это не очевидно, пока сам не попробуешь.
источник
2019 December 05
DL in NLP
TensorFlow 2.1 (release candidate)

Что хорошего:
Гугл услышал нас и теперь по дефолту через pip install tensorflow ставится версия с поддержкой gpu. Если у вас gpu нету, ничего падать не будет и всё будет считаться на cpu (а сразу так можно было?)

Новый слой TextVectorization - делает за вас весь препроцессинг. Если он ещё и в bpe умеет, то это must have (но скорее всего не умеет)

Видно что они продолжают работать над главной задачей TF 2.X - ясный и однозначный API. Получается плохо, но движение правильное. Может быть TF-код будет возможно не только писать, но и читать через пару-тройку релизов.

github.com/tensorflow/tensorflow/releases/tag/v2.1.0-rc0?linkId=78227050
источник
DL in NLP
Вчера была мысль, что основной задачей разработчиков фреймворков-числодробилок является сделать их быстрыми. И от этого только больше удивляешься таким примерам: дефолтный способ преобразования нумпай-тензора в pytorch сильно медленее хитрого с небольшим ароматом питоновской магии comrehensions.
источник
DL in NLP
знай врага в лицо!
источник
2019 December 06
DL in NLP
Больше экспериментов по «интерполяционному» режиму обучения, который прослеживается в оверпараметризованных моделях (нейросети, бустинг итд)
источник
DL in NLP
источник
DL in NLP
источник
DL in NLP
источник
DL in NLP
источник
DL in NLP
Странная, но забавная идея: добавлять/убирать ноды в ваш кластер прямо во время обучения. Теперь можно с PuTorch Elastic. Вдруг кому понадобится.

(Пришёл домой, который отапливает твой сервер с 8 Tesla V100 и подключил свой ноутбук к нему, чтобы языковая моделька на неделю раньше поспела, утром отключил и пошёл ну работу)

twitter.com/PyTorch/status/1202978616679645185
источник
DL in NLP
Controlling Text Generation with Plug and Play Language Models (uber.com)
источник
DL in NLP
AI Dungeon 2
aiweirdness.com/post/189511103367/play-ai-dungeon-2-become-a-dragon-eat-the-moon

Мы прямо сейчас лабой играем в эту текстовую игру, которая использует GPT-2 для генерации истории и реакции на твои ответы. Она прекрасна.
источник
DL in NLP
источник
2019 December 08
DL in NLP
Переслано от b b
Тут Google выложил тетрадку, в которой показывает, как зафайнтюнить свой монструозный Т5 бесплатно на колабе на решение новой задачи: https://github.com/google-research/text-to-text-transfer-transformer/blob/master/notebooks/t5-trivia.ipynb
источник
2019 December 10
DL in NLP
Амазон на последнем Re:Invent представил много интересного для (и с) ML

1. CodeGuru - автоматизация code review. Будет интересно попробовать и может быть это поможет сократить количество откровенного студенческого и исследовательского говнокода.
1. SageMaker Experiments и SageMaker Model Monitor - wandb.ai от амазона
1. SageMaker Studio - Jupyter Lab на стеройдах, я планирую попробовать
1. SageMaker Notebook Experience - удобный интерфейс для запуска ноутбуков
1. SageMaker Debugger - очень мутное описание что это на самом деле, но маркетологи амазона обещают что эта штука должна помочь находить ошибки и аномалии в модели / данных
источник
2019 December 13
DL in NLP
Привет! Немного с опозданием, но всё же анонсируем два завершающих этот год семинара 🐁

18 декабря (следующая среда)

Ближайший семинар снова будет проведён совместно с лабораторией Speech & Language Huawei. Семинар состоится по адресу Ленинградский проспект 36. ст. 11 (метро Динамо), в 19:00. На семинаре будет три доклада:

🎩 Павел Браславский (ВШЭ СПб / УрФУ / JetBrains Research) расскажет про автоматический анализ и генерацию юмора с обзорным докладом "LOL NLP: an overview of computational humor".
🕶 Михаил Кудинов (Huawei Research) проведёт краткий ликбез по технологиям генерации речи (Text-to-Speech) .
🌟 Арина Агеева (Сбербанк) поделится опытом по автоматической категоризации резюме при помощи BigARTM.

24 декабря (вторник 🎄)

Последний в этом году семинар пройдёт уже на привычной площадке Вышки по адресу Дурасовский переулок 1, аудиория R205 (корпус на Покровке), в 19:00.

В качестве рождественского подарка Лаборатория вычислительной прагматики Вышки привозит из Гамбурга исследовательницу Özge Sevgili Ergüven с докладом "Neural entity linking using graph embedding" 🍕 Будет много эмбеддингов на графах и всякого такого!

Регистрация

Теперь у нас одна форма сразу на два семинара:

https://forms.gle/u5Ur3YmjxzwypY2h7

Обратите внимание, что ФИО писать нужно полностью, иначе есть риск, что охрана не сможет вас пропустить. И не забудьте паспорт 🙈

Чуть больше информации (аннотации докладов и всё такое) скоро появится у нас на сайте:

https://sites.google.com/view/nlp-seminar/main

По всем вопросам можно писать в чатик семинаров @nlp_spb.

П Р И Х О Д И Т Е !
источник
2019 December 15
DL in NLP
На неделе совсем не было времени на канал, но я собрал много интересных штук, в том числе с NeurIPS. Далеко не всё про NLP, но хорошие художники копируют, а лучшие применяют метод к новой области и подают статью на воркшоп <think_about_it_meme.png>


1. Normalizing Flows - очень интересный класс генеративных моделей. Их можно применять в VAE для использования более сложных, чем multivariate gaussian априорных распределений. Если хотите с ними поиграться, есть довольно понятная имплементация от Андрея Карпатого (директор AI в Tesla) на богоугодном PyTorch.
1. Your Classifier is Secretly an Energy Based Model and You Should Treat it Like One, Grathwohl et al. - совершенно неочевидная статья, которая говорит, что ваш классификатор кошечек и собачек не только учит разделять два вида картинок, но и генерировать новые. Трэд в твиттере с TL;DR: twitter.com/DavidDuvenaud/status/1204143678865866752
1. Немного странный туториал по energy-efficient deep learning
1. Top-6 проектов студентов fast.ai twitter.com/jeremyphoward/status/1204170758512988160
Много из них просто классифицируют звук работая со спектрограммой как с изображением и результаты довольно неплохие. А вот в этом проекте студент визуализировал SGD с различным LR.
1. Завезли новый метод интерпретации классификаторов текста, который а) выделяет слова бинарно б) выделенные слова достаточны для классификации в) основан на теории игр
1. Contrastive Predictive Coding восстал из могилы и получил SOTA на линейной классификации ImageNet. Self-supervised learning начал работать в CV. Да и просто это понятная статья от DeepMind, что нечасто увидишь arxiv.org/abs/1905.09272v2
1. Туториал по Interpretable Comparison of Distributions and Models для любителей матана
1. Забавный TL;DR ALBERT от Hugging Face (но лучше почитайте полноценный тут в канале)
1. Weight Agnostic Neural Networks, Gaier & Ha - неросети, которые работают с любыми весами и как их искать. Мегадичь, поэтому и забавно посмотреть
1. Mixtape: Breaking the Softmax Bottleneck Efficiently, Yang et al. - не очень дорогой способ получить +1 BLEU на ваших задачах машинного перевода. Идея в модификации софтмакса, который заставляет распределения быть низкогарновыми, а мы этого не хотим.
1. Ревью текущего состояния NLU от исследователей Stanford, DeepMind, Google Research, Bosch AI (wat?) и LMU Munich
источник
DL in NLP
источник
DL in NLP
источник