from transformers import AutoTokenizer from transformers.adapters import AutoAdapterModel # Cargar el modelo y tokenizer model_name = "carlosdimare/clascon" # Nombre del modelo ya entrenado en Hugging Face tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoAdapterModel.from_pretrained(model_name) # Cargar el adapter preentrenado y activarlo model.load_adapter(model_name, set_active=True) # Función para generar respuestas def generar_respuesta(prompt): inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(inputs["input_ids"], max_length=100, num_beams=5, no_repeat_ngram_size=2, early_stopping=True) return tokenizer.decode(outputs[0], skip_special_tokens=True) # Ejemplo de uso prompt = "¿Qué es la conciencia de clase y por qué es importante?" respuesta = generar_respuesta(prompt) print(f"Pregunta: {prompt}\nRespuesta: {respuesta}")