centroIA commited on
Commit
42c4a2f
verified
1 Parent(s): 7e49ab3

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -7
app.py CHANGED
@@ -1,21 +1,29 @@
1
  import gradio as gr
2
- from transformers import pipeline
3
 
4
- # Carga un modelo un poco m谩s potente pero r谩pido
5
- model = pipeline("text-generation", model="facebook/opt-350m")
 
 
 
6
 
7
  # Define una funci贸n para procesar las solicitudes
8
  def process_prompt(prompt):
9
- response = model(prompt, max_length=100, num_return_sequences=1, do_sample=True)
10
- return response[0]["generated_text"]
 
 
 
 
 
11
 
12
  # Configura la interfaz de API con Gradio
13
  interface = gr.Interface(
14
  fn=process_prompt,
15
  inputs="text",
16
  outputs="text",
17
- title="Hugging Face Space API - OPT-350M",
18
- description="Modelo ligero y r谩pido basado en OPT-350M para probar vulnerabilidades con RedTeamer.",
19
  )
20
 
21
  # Ejecuta la app
 
1
  import gradio as gr
2
+ from llama_cpp import Llama
3
 
4
+ # Carga el modelo Gemma-2B-it desde llama_cpp
5
+ llm = Llama.from_pretrained(
6
+ repo_id="google/gemma-2b-it-GGUF", # Repositorio del modelo
7
+ filename="gemma-2b-it.gguf" # Archivo del modelo
8
+ )
9
 
10
  # Define una funci贸n para procesar las solicitudes
11
  def process_prompt(prompt):
12
+ # Genera la salida del modelo
13
+ output = llm(
14
+ prompt,
15
+ max_tokens=512, # Limita el n煤mero de tokens generados
16
+ echo=True # Incluye el prompt en la salida
17
+ )
18
+ return output['choices'][0]['text'] # Retorna solo el texto generado
19
 
20
  # Configura la interfaz de API con Gradio
21
  interface = gr.Interface(
22
  fn=process_prompt,
23
  inputs="text",
24
  outputs="text",
25
+ title="Hugging Face Space API - Gemma-2B-it",
26
+ description="Modelo basado en Gemma-2B-it para probar vulnerabilidades con RedTeamer.",
27
  )
28
 
29
  # Ejecuta la app