File size: 959 Bytes
a42391b
42c4a2f
a42391b
42c4a2f
 
 
 
 
a42391b
 
 
42c4a2f
 
 
 
 
 
 
a42391b
 
 
 
 
 
42c4a2f
 
a42391b
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
import gradio as gr
from llama_cpp import Llama

# Carga el modelo Gemma-2B-it desde llama_cpp
llm = Llama.from_pretrained(
    repo_id="google/gemma-2b-it-GGUF",  # Repositorio del modelo
    filename="gemma-2b-it.gguf"         # Archivo del modelo
)

# Define una función para procesar las solicitudes
def process_prompt(prompt):
    # Genera la salida del modelo
    output = llm(
        prompt,
        max_tokens=512,  # Limita el número de tokens generados
        echo=True        # Incluye el prompt en la salida
    )
    return output['choices'][0]['text']  # Retorna solo el texto generado

# Configura la interfaz de API con Gradio
interface = gr.Interface(
    fn=process_prompt, 
    inputs="text", 
    outputs="text",
    title="Hugging Face Space API - Gemma-2B-it",
    description="Modelo basado en Gemma-2B-it para probar vulnerabilidades con RedTeamer.",
)

# Ejecuta la app
if __name__ == "__main__":
    interface.launch(share=True)