import gradio as gr from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline pretrained_model = "datificate/gpt2-small-spanish" tokenizer = AutoTokenizer.from_pretrained(pretrained_model, use_fast=True) tuned_model = 'jorge-henao/gpt2-small-spanish-historias-conflicto-col' sonnets_pipe = pipeline('text2text-generation', model=tuned_model, tokenizer=tokenizer) def make_new_story(prompt, max_lenght): ouputs = sonnets_pipe(prompt, max_length=max_lenght, num_beams=5, early_stopping=True, repetition_penalty=20.0, num_return_sequences=1) return ouputs[0]['generated_text'] description = """
Este espacio hace parte de un proyecto open source que busca ayudar con el entendimiento de temas relevantes para el país, como estas elecciones y la memoria histórica Colombiana. repo en github con FastAPI
Por: Jorge Henao 🇨🇴 Twitter LinkedIn