The ai-forever/rugpt3large_based_on_gpt2 based model was fine tuned for Question-Answer tasks in Russian.
Версия: датасет 400тыс. строк, 1-ая эпоха. В дальнейшем будут появлятся другие модели.
Качество ответа: среднее
Формат запроса: <s> [user] Запрос [assistant] ... </s>
Пример использования:
from transformers import GPT2Tokenizer, GPT2LMHeadModel
model = GPT2LMHeadModel.from_pretrained("ERmak1581/rugpt3large_for_qna_400k1")
tokenizer = GPT2Tokenizer.from_pretrained("ERmak1581/rugpt3large_for_qna_400k1")
print(tokenizer.decode(model.generate(
tokenizer.encode('<s> [user] Почему небо синее? [assistant]',
return_tensors="pt"),
max_new_tokens=100, no_repeat_ngram_size=2, temperature=0.7, do_sample=True)[0]))
- Downloads last month
- 15
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.