Edit model card

The ai-forever/rugpt3large_based_on_gpt2 based model was fine tuned for Question-Answer tasks in Russian.

Версия: датасет 400тыс. строк, 1-ая эпоха. В дальнейшем будут появлятся другие модели.
Качество ответа: среднее
Формат запроса: <s> [user] Запрос [assistant] ... </s>

Пример использования:

from transformers import GPT2Tokenizer, GPT2LMHeadModel

model = GPT2LMHeadModel.from_pretrained("ERmak1581/rugpt3large_for_qna_400k1")
tokenizer = GPT2Tokenizer.from_pretrained("ERmak1581/rugpt3large_for_qna_400k1")

print(tokenizer.decode(model.generate(
                        tokenizer.encode('<s> [user] Почему небо синее? [assistant]',
                                     return_tensors="pt"),
                        max_new_tokens=100, no_repeat_ngram_size=2, temperature=0.7, do_sample=True)[0]))
Downloads last month
15
Safetensors
Model size
760M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Space using ERmak1581/rugpt3large_for_qna_400k1 1