Интересная статья по супер перспективному направлению комбинации языковых моделей и графов знаний. Рассматривается задача суммаризации, например, на вход подаётся топ 100 документов поисковой выдачи, а на выходе генерируется аннотация длиной 150 токенов.
Задача решается в два этапа. Сначала, из выдачи выделяются триплеты - (субъект, предикат, объект), которые объединяют в общий граф с сущностями вершинами и предикатами ребрами. Полученный граф лианиризуется - представляется в виде строки.
На втором этапе, запрос и лианиризованное представление графа по отдельности кодируются трансформером. Результаты прогоняются через иерархический аттеншн. Векторное представление после аттеншна используется seq2seq трансформером для генерации ответа.
Важной частью обучения модели является multi-task trainig. Система тренируется не только для суммаризации, но и для восстановления графа знаний (по принципу маскирования при обучении языковых моделей). Подобный подход можно использовать и для совместной тренировки знание-языковой модели.
PS: мы в iPavlov как раз сейчас ищем людей, кто может или чувствует себя готовым делать подобные штуки для Q&A пишите мне
@MBurtsevhttps://research.fb.com/publications/using-local-knowledge-graph-construction-to-scale-seq2seq-models-to-multi-document-inputs/