Size: a a a

Natural Language Processing

2021 April 25

DS

Daria Samsonova in Natural Language Processing
и метод SequenceMatcher
источник

IK

Irina Krotova in Natural Language Processing
https://nlp.stanford.edu/IR-book/html/htmledition/faster-postings-list-intersection-via-skip-pointers-1.html — если вопрос том, как посчитать пересечение двух списков быстрее, чем за O(m + n), то SkipList.
источник

RS

Ruslan Sabirov in Natural Language Processing
Привет!
Тренирую модель-трансформер для генерации текста. Хочу на каждой интерации (или почти на каждой) вызывать функцию генерации и валидировать результат другой моделью (ее веса заморожены), лосс от которой будет  учитываться при тренировке первой модели

На тренировке получаю данные в CPU и потом в forward-фукнции перевожу на GPU. Где стоит держать вторую модель: на GPU или CPU?
источник

О

Олег in Natural Language Processing
Вопрос по Наташе. Как из предложения вытащить все существительные?
Пробую из doc.tokens как-то вызвать pos=="Noun", не выходит.
источник

Е

Егорка in Natural Language Processing
источник

О

Олег in Natural Language Processing
Если честно я в мануал не въехал, поэтому и спросил. А рабочего примера в инете не нашел.
источник

О

Олег in Natural Language Processing
Вот как бывает. Сейчас поныл в чат и сразу разобрался как делать. Спасибо за терпение)
источник
2021 April 26

C

Constantin in Natural Language Processing
Здравствуйте.

Обращаюсь к спецам по tf. Пытаюсь запустить transformer модель для ner, но модель не учится... думаю что как-то плохо данные подготавливаю. Посмотрите, пожалуйста, в каком виде генератор выдает экземпляр, все ли нормально? Вроде согласно документации все — ({input1: ..., input2 : ...}, target)

Обучаю просто через model.fit()

а в качестве генератора - TensorSliceDataset
источник

AC

Alexander C in Natural Language Processing
🚀  "SBERLOGA" представляет необычнейший доклад - дата сайнс (NLP, граф-мл) и философия - присоединяйтесь.
👨‍🔬 Антон Костин (МФТИ) "Философия на графах"
⌚️ Вторник 27 апреля, 19.00 по Москве

Разберем блокнот с кодом построения графа поверх текстовых эмбеддингов (fasttext).
На примере Louvain посмотрим, как алгоритмы модульности находят философские школы.
В задаче Link Prediction подумаем над неочевидными связями между разными школами и философами.
А также обсудим, будут ли студенты ВУЗов делать домашку по философии с использованием NLP
и дискретной математики (спойлер: на Физтехе уже начали)? Рассказывает преподаватель философии.

Ноутбуки и данные доступы на каггле:
https://www.kaggle.com/visualcomments/philosophy-ru-large
Ваши апвоут, конечно, приветствуются.

Ссылка на зум будет доступна через чат тг чат https://t.me/kg_course ближе к началу доклада.
источник

AC

Alexander C in Natural Language Processing
Имхо, будет полезно начинающим в НЛП и/или граф-мл.
источник

НК

Николай Карпенко... in Natural Language Processing
А что эти связи показывают?
источник

S★

Serge ★ in Natural Language Processing
Граф на КДПВ я видел в исследовании данных вики, там у философов есть ссылка-связь "influence" в англоязычной
"Повлиял на", "Испытывал влияние от"
источник

AC

Alexander C in Natural Language Processing
Доклад будет завтра , наверно лучше там и спросить. (Не я докладчик)
источник

YS

Yaroslav Stolbunov in Natural Language Processing
Доброго времени суток. Вопрос по Наташе. Есть ли где-нибудь словарь о частях предложений? не могу разобраться в значениях некоторых из них. Заранее спасибо.
источник

S

Stan Smith in Natural Language Processing
Всем привет.

есть ли такая группа на английском языке?
источник

D

Daria in Natural Language Processing
источник

S

Stan Smith in Natural Language Processing
спасибо!
источник

N

Natalia in Natural Language Processing
источник

N

Natalia in Natural Language Processing
источник

YS

Yaroslav Stolbunov in Natural Language Processing
Спасибо!!!!!
источник