Size: a a a

Natural Language Processing

2020 July 13

I

I Апрельский... in Natural Language Processing
David Dale
Обучают на примерах, но часть примеров размечены автоматически, трансфером с других задач.
Давид, а можно, пожалуйста, пример пары таких задач: основной и  другой -- той с которой "трансфер".

Если основная -- это оценка значимости, то другая -- это что?
источник

DD

David Dale in Natural Language Processing
I Апрельский
Давид, а можно, пожалуйста, пример пары таких задач: основной и  другой -- той с которой "трансфер".

Если основная -- это оценка значимости, то другая -- это что?
Основная - оценка значимости каждого токена в контексте. Первоначальная - например, классификация предложений  или детекция парафраз.

Если аутпут основной задачи мало чувствителен к выкидыванию данного токена или к изменению его эмбеддинга на какой-нибудь случайный, этот токен можно считать незначимым.
источник

DD

David Dale in Natural Language Processing
А ещё (это не относится к методу из Алисы, но я так тоже делал, и в отсутствие размеченных данных работало недурно) можно строить дерево зависимостей и применять поверх него правила, отпиливающие веточки с определёнными словами/частями речи/видами зависимостей в основании.
источник

I

I Апрельский... in Natural Language Processing
То есть перебор токенов проводится? Выкидываем по очереди токен и смотрим на сколько изменилась вероятность класса?
источник

I

I Апрельский... in Natural Language Processing
Наверное какая-то эвристика по отбору таких слов есть ещё?
источник

DD

David Dale in Natural Language Processing
I Апрельский
То есть перебор токенов проводится? Выкидываем по очереди токен и смотрим на сколько изменилась вероятность класса?
Или даже не выкидываем, а производную считаем (кажется, это можно сделать сильно быстрее, ибо ответ для всех токенов сразу получается в один прогон)
источник

DD

David Dale in Natural Language Processing
I Апрельский
Наверное какая-то эвристика по отбору таких слов есть ещё?
Куда же без них 🙃

Деталей я не знаю, потому что я сам эту задачу не решал, а так, уши рядом грел.
источник

I

I Апрельский... in Natural Language Processing
Просто кажется все перебирать и долго и не очень эффективно с точки зрения полноты...
источник

OS

Oleg Serikov in Natural Language Processing
cnstntn kndrtv
Интерсено, если это инфикс, корректно ли выносить его? Например было А B A - станет AA B или B AA.
этим точно интересовались лингвихсты, но я не могу ничего посоветовать)
источник

OS

Oleg Serikov in Natural Language Processing
fan-fucking-tastic -> fucking fantastic вроде можно,но глубже я на парах спал
источник
2020 July 14

AK

Anton Kolonin in Natural Language Processing
Из @AGIRussia с любовью, если не сочтете за спам и рекламу 😉
источник

AK

Anton Kolonin in Natural Language Processing
Переслано от Anton Kolonin
А в этот четверг в 18-00 по Москве - очередной семинар AGI-по-русски:
Алексей Редозубов, автор концепции, TrueBrainComputing http://truebraincomputing.com
"Мы претендуем на то, что создали модели сильного ИИ, и нам удалось показать, что мозг работает именно так.
Ключевым в этом стало определение понятия смысла."
https://www.facebook.com/groups/agirussia/?multi_permalinks=3289682267736995 - для участия отпишитесь в ФБ, а я попрошу сюда ссылку продублировать
источник

I

I Апрельский... in Natural Language Processing
коллеги, есть у кого-нибудь соображения, почему ценно обратить внимание на ☝️
меня сама риторика настолько отпугивает, что я даже не готов искать там интересные предположения.  
"удалось показать, что мозг работает именно так" — какое-то шапкозакидательство.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Создание сильного искусственного интеллекта само по себе забавно звучит
источник

I

I Апрельский... in Natural Language Processing
приходит на ум метафора.
люди говорят, что открыли философским камнем и обещают превратить свинец в золото — это не вызывает никакого доверия. но вдруг там открыли ядерный синтез и может не свинец в золото, но водород в гелий успешно превращают!
источник

MT

Mikhail Tikhomirov in Natural Language Processing
что то в разделе публикации последняя была аж в 2018 году, ну такое
источник

SP

Sebastian Pereira in Natural Language Processing
Если гипотеза опровергаема (не религиозная, или антинаучная) , то сообщение о такой гипотезе стоит внимания, хотя бы для того чтобы составить мнение о ней.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Гипотез в мире множество, а человеческий ресурс ограничен
источник

SP

Sebastian Pereira in Natural Language Processing
Все так. На сайте слабо понятно в чем состоит «деятельность» команды - НИР, разаработка ПО или что-то ещё.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Просто по заголовку, люди заявляют, что претендуют на то, что создали модели сильного ИИ. Это абсурдно звучит, с нынешним прогрессом в nlp. Либо это для хайпа, либо от непонимания. Оба варианта мне не по душе (хотя хайп в принципе еще норм).
источник