Spaces:
Runtime error
Runtime error
from transformers import GPT2LMHeadModel, GPT2Tokenizer | |
def generate_text(prompt, model_name="gpt2-medium", max_length=100, num_return_sequences=1): | |
# Charger le modèle et le tokenizer | |
tokenizer = GPT2Tokenizer.from_pretrained('rombodawg/test_dataset_Codellama-3-8B') | |
model = GPT2LMHeadModel.from_pretrained('rombodawg/test_dataset_Codellama-3-8B') | |
# Encoder le prompt en tokens | |
input_ids = tokenizer.encode(prompt, return_tensors="pt") | |
# Générer du texte | |
output = model.generate( | |
input_ids, | |
max_length=max_length, | |
num_return_sequences=num_return_sequences, | |
no_repeat_ngram_size=2, | |
top_k=50, | |
top_p=0.95, | |
temperature=0.7, | |
pad_token_id=tokenizer.eos_token_id | |
) | |
# Décoder les résultats en texte | |
generated_text = tokenizer.decode(output[0], skip_special_tokens=True) | |
return generated_text | |
# Exemple d'utilisation | |
prompt = "Une fois dans une forêt sombre, un aventurier solitaire" | |
generated_text = generate_text(prompt) | |
print(generated_text) | |