DeepMount00 commited on
Commit
bf04be8
·
verified ·
1 Parent(s): 4f19204

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -3
README.md CHANGED
@@ -26,7 +26,7 @@ def generate_answer(prompt, response_type="generativo"):
26
  prompt = f"Rispondi alla seguente domanda in modo estrattivo, basandoti esclusivamente sul contesto.\n{prompt}"
27
  else:
28
  prompt = f"Rispondi alla seguente domanda in modo generativo, basandoti esclusivamente sul contesto.\n{prompt}"
29
-
30
  # Preparazione del messaggio per il modello
31
  messages = [
32
  {"role": "user", "content": prompt},
@@ -35,14 +35,16 @@ def generate_answer(prompt, response_type="generativo"):
35
  generated_ids = model.generate(model_inputs, max_new_tokens=200, do_sample=True,
36
  temperature=0.001, eos_token_id=tokenizer.eos_token_id)
37
  decoded = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)
38
- return decoded[0]
 
 
39
 
40
  # Esempio di utilizzo con la nuova funzionalità
41
  contesto = """Venerdì più di 2.100 persone che vivono vicino a un vulcano in Indonesia sono state sfollate per i rischi legati a un’eruzione. Martedì infatti l’isola vulcanica di Ruang, che si trova circa 100 chilometri a nord di Sulawesi, ha cominciato a eruttare, producendo una colonna di fumo e ceneri che ieri ha raggiunto 1.200 metri di altezza. Le operazioni di evacuazione sono ancora in corso: complessivamente sono più di 11mila le persone a cui è stato detto di lasciare le proprie case. Gran parte di loro vive sulla vicina isola di Tagulandang, che in totale ha 20mila abitanti; potrebbe essere raggiunta non solo dalle ceneri vulcaniche e dai piroclasti, ma anche da un eventuale tsunami causato dalla caduta in mare di lava e rocce."""
42
  domanda = "Perchè le persone sono evacuate dalle case?"
43
  prompt = f"Contesto: {contesto}\nDomanda: {domanda}"
44
 
45
- # Chiamata alla funzione generate_answer con il tipo di risposta desiderato
46
  answer = generate_answer(prompt, "estrattivo")
47
  print(answer)
48
  ```
 
26
  prompt = f"Rispondi alla seguente domanda in modo estrattivo, basandoti esclusivamente sul contesto.\n{prompt}"
27
  else:
28
  prompt = f"Rispondi alla seguente domanda in modo generativo, basandoti esclusivamente sul contesto.\n{prompt}"
29
+
30
  # Preparazione del messaggio per il modello
31
  messages = [
32
  {"role": "user", "content": prompt},
 
35
  generated_ids = model.generate(model_inputs, max_new_tokens=200, do_sample=True,
36
  temperature=0.001, eos_token_id=tokenizer.eos_token_id)
37
  decoded = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)
38
+ return decoded[0].split("[/INST]", 1)[1].strip() if "[/INST]" in decoded[0] else "Errore nella generazione della risposta"
39
+
40
+
41
 
42
  # Esempio di utilizzo con la nuova funzionalità
43
  contesto = """Venerdì più di 2.100 persone che vivono vicino a un vulcano in Indonesia sono state sfollate per i rischi legati a un’eruzione. Martedì infatti l’isola vulcanica di Ruang, che si trova circa 100 chilometri a nord di Sulawesi, ha cominciato a eruttare, producendo una colonna di fumo e ceneri che ieri ha raggiunto 1.200 metri di altezza. Le operazioni di evacuazione sono ancora in corso: complessivamente sono più di 11mila le persone a cui è stato detto di lasciare le proprie case. Gran parte di loro vive sulla vicina isola di Tagulandang, che in totale ha 20mila abitanti; potrebbe essere raggiunta non solo dalle ceneri vulcaniche e dai piroclasti, ma anche da un eventuale tsunami causato dalla caduta in mare di lava e rocce."""
44
  domanda = "Perchè le persone sono evacuate dalle case?"
45
  prompt = f"Contesto: {contesto}\nDomanda: {domanda}"
46
 
47
+
48
  answer = generate_answer(prompt, "estrattivo")
49
  print(answer)
50
  ```