Size: a a a

Natural Language Processing

2019 November 27

A

Alexey in Natural Language Processing
Спасибо)
источник
2019 November 28

NN

Nikolai Neustroev in Natural Language Processing
Кто-нибудь знает где можно найти sentiment lexicon для русского? Нашел Rusentilex, но хотел бы ещё другое посмотреть
источник

М

Михаил in Natural Language Processing
Всем привет. Где можно взять pretrained model для relation extraction для русского языка (e.g. owner_of, founder_of, friend_of etc)? Для английского их море (например https://github.com/thunlp/OpenNRE). Для русского я не нашёл даже dataset'а. В deeppavlov kbqa похоже делается relation extraction. Но разобраться в том, как оно там устроенно (как уже говорили в этом чате) весьма проблематично. Может кто-то видел решение для этой проблемы?
источник

YB

Yuri Baburov in Natural Language Processing
Михаил
Всем привет. Где можно взять pretrained model для relation extraction для русского языка (e.g. owner_of, founder_of, friend_of etc)? Для английского их море (например https://github.com/thunlp/OpenNRE). Для русского я не нашёл даже dataset'а. В deeppavlov kbqa похоже делается relation extraction. Но разобраться в том, как оно там устроенно (как уже говорили в этом чате) весьма проблематично. Может кто-то видел решение для этой проблемы?
для русского датасета можно брать wikidata / conceptnet / babelnet , а потом эту информацию применять на текстах и учить на предложениях, где есть подходящие фразы.
источник

YB

Yuri Baburov in Natural Language Processing
но надо делать самому, да.
источник

rb

r-ysshe beiyez-s in Natural Language Processing
Привет, я скачала с deeppavlov ner_rus_bert_v1.tar.gz (архив обычный с model, словарем, meta, чекином и т.д), т.к. мне нужно использовать модель на машине без интернета. Скажите, как ее подгружать, через либу диппавлов или напрямую через tf? И как? Не могу что-то разобраться, спасибо
источник

NS

Nikolay Shmyrev in Natural Language Processing
также и использовать, как в примерах, просто поставить download=False

ner_model = build_model(configs.ner.ner_ontonotes_bert, download=False)
источник

rb

r-ysshe beiyez-s in Natural Language Processing
Nikolay Shmyrev
также и использовать, как в примерах, просто поставить download=False

ner_model = build_model(configs.ner.ner_ontonotes_bert, download=False)
это работает на машине, где уже есть директория .deeppavlov и нужные параметры модели в ней, а у меня, оказалось, не было. но мне вроде подсказали, куда что класть, спасибо :)
источник

DP

Danil Palenov in Natural Language Processing
Народ нужна помощь
источник

DP

Danil Palenov in Natural Language Processing
Я делаю проект в processing,и мне надо сделать вторую платформу для игры,пытался добавить - программа посылала нахер меня,как решить проблему?
источник

ck

cnstntn kndrtv in Natural Language Processing
Привет! Есть вопросы по Yargy. В репозитории на github вроде этот чат указан. Кому написать?
источник

K

Kir in Natural Language Processing
да всем писать и норм
источник

ck

cnstntn kndrtv in Natural Language Processing
собственно вопрос:
TestRule = fact(
       'TestRule',
       ['key', 'value']
   )

TEST_RULE = rule(
   eq('word').interpretation(TestRule.key),
   not_(eq('word')).repeatable().optional(),
   y_type('INT').interpretation(TestRule.value),
).interpretation(
   TestRule
)
TXT = 'word foo bar baz 1 2 3'
[m.fact for m in list(Parser(TEST_RULE).findall(TXT))]

Результат - word 3
А я думал будет - word 1
Почему у меня выдяляется последний ИНТ (3)? Как-то не так правило написал, но не пойму, как правильно.
источник

Г

Герман in Natural Language Processing
Вот такое дерево выходит
источник

Г

Герман in Natural Language Processing
Как пофиксить, я пока не соображу. Давно с ярги не работал
источник

Г

Герман in Natural Language Processing
and_(
       not_(eq('word')),
       not_(y_type('INT')),
   ).repeatable().optional(),


Вроде должно починить, cnstntn
источник

ck

cnstntn kndrtv in Natural Language Processing
@ger_ok, спасибо! объясни пожалуйста, почему нужно исключать ИНТ?
источник

Г

Герман in Natural Language Processing
Я не особо сведущ в механике самого парсера. Судя по дереву, второе правило продолжает работать, пока есть куда. В принципе логично, ведь "1" вполне себе удовлетворяет
not(eq('word'))
. Ну а если добавить исключение для ИНТ, то оставновится оно на первом ИНТе.
источник

ck

cnstntn kndrtv in Natural Language Processing
спасибо)
источник

SZ

Sergey Zakharov in Natural Language Processing
Михаил
Всем привет. Где можно взять pretrained model для relation extraction для русского языка (e.g. owner_of, founder_of, friend_of etc)? Для английского их море (например https://github.com/thunlp/OpenNRE). Для русского я не нашёл даже dataset'а. В deeppavlov kbqa похоже делается relation extraction. Но разобраться в том, как оно там устроенно (как уже говорили в этом чате) весьма проблематично. Может кто-то видел решение для этой проблемы?
Я как раз искал для английского языка обученные модели, спасибо за ссылку. А где ещё что-то похожее есть (в OpenNRE вижу только одну модель)? Предобучнные модели и датасеты. Особенно интересуют биомедицинские тексты.
источник