Если честно, даже ко многим академическим статьям часто много вопросов, нужно время, чтобы их результаты подтвердились. Статьи на медиуме могут быть полезны с практической точки зрения, но с точки зрения научной ценности - такое себе.
плюс если дело коснётся ещё шага влево - более/менее детальный текст это тоже проблема, так как сам GPT-2, даже с костылями тупо не имеет такой возможности, это надо подключать что-то вроде PPLM который завязан на скриптах, что не есть гуд для colab
Если честно, даже ко многим академическим статьям часто много вопросов, нужно время, чтобы их результаты подтвердились. Статьи на медиуме могут быть полезны с практической точки зрения, но с точки зрения научной ценности - такое себе.
но, собсно, когда пилишь инструмент как-то на научность статей фиолетово, главное работоспособность
Вообще работа с длинными текстами - тот ещё кек, есть целый ряд статей, в которых пытаются в той или иной степени побороть забывчивость моделей. А про контроль генерации - есть шикарный pplm, хз почему про него забывают(
Вообще работа с длинными текстами - тот ещё кек, есть целый ряд статей, в которых пытаются в той или иной степени побороть забывчивость моделей. А про контроль генерации - есть шикарный pplm, хз почему про него забывают(
плюс если дело коснётся ещё шага влево - более/менее детальный текст это тоже проблема, так как сам GPT-2, даже с костылями тупо не имеет такой возможности, это надо подключать что-то вроде PPLM который завязан на скриптах, что не есть гуд для colab