AA
Size: a a a
OG
YB
VM
IK
NM
E
E
E
МЕ
N
E
D
t2
UN
A
from transformers import GPT2LMHeadModel, GPT2TokenizerКажется логичным вот так достать из gpt. Но не очень нравятся результаты.
import numpy as np
model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3large_based_on_gpt2')
tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3large_based_on_gpt2')
def score(text):
tokens_tensor = tokenizer.encode(text, add_special_tokens=False, return_tensors='pt')
loss=model(tokens_tensor, labels=tokens_tensor)[0]
return np.exp(loss.cpu().detach().numpy())
score('Привет, мир!') # 38.270206
score('Привт ммыр') # 1350.5159
score('Привет мир') # 81707.08
K
K