Commit
·
89f5715
1
Parent(s):
86d6991
Update playground.py
Browse files- tabs/playground.py +11 -7
tabs/playground.py
CHANGED
@@ -32,23 +32,25 @@ def display_proba_next_token(prompt,temperature,max_token):
|
|
32 |
probabilities = {key: np.exp(value) for key, value in logprobs_dict.items()}
|
33 |
|
34 |
# Afficher le texte de la réponse
|
35 |
-
st.write("Token suivant
|
36 |
# st.write("Texte de la réponse : ->"+response['choices'][0]['text'][0]+"<-") # Afficher le texte de la réponse
|
37 |
st.write("")
|
38 |
|
39 |
# Afficher les probabilités pour le prochain token
|
40 |
-
|
41 |
-
|
|
|
42 |
|
43 |
# Afficher le texte de la réponse complete
|
44 |
st.write("")
|
45 |
try:
|
46 |
text = response['choices'][0]['text']
|
47 |
-
st.write("Texte de la réponse complète
|
|
|
48 |
except KeyError:
|
49 |
-
st.error("La réponse ne contient pas de texte supplémentaire.")
|
50 |
else:
|
51 |
-
st.error("La réponse ne contient pas de texte supplémentaire.")
|
52 |
# st.write("Texte de la réponse complete: ->"+str(response['choices'][0]['text'])+"<-") # Afficher le texte de la réponse
|
53 |
# st.write("")
|
54 |
# st.write(response)
|
@@ -64,12 +66,14 @@ def run():
|
|
64 |
st.markdown('''
|
65 |
---
|
66 |
''')
|
|
|
67 |
st.header("**"+tr("Prédiction du token suivant")+"**")
|
68 |
st.markdown(tr(
|
69 |
"""
|
70 |
-
Cet espace a pour objectif d'observer la génération de token par ChatGPT
|
71 |
""")
|
72 |
, unsafe_allow_html=True)
|
|
|
73 |
if 'OPENAI_API_KEY' in st.session_state:
|
74 |
try:
|
75 |
openai.api_key = st.session_state['OPENAI_API_KEY']
|
|
|
32 |
probabilities = {key: np.exp(value) for key, value in logprobs_dict.items()}
|
33 |
|
34 |
# Afficher le texte de la réponse
|
35 |
+
st.write("**Token suivant :** ->**:red["+list(probabilities.keys())[0]+"]**<-") # Afficher le texte de la réponse
|
36 |
# st.write("Texte de la réponse : ->"+response['choices'][0]['text'][0]+"<-") # Afficher le texte de la réponse
|
37 |
st.write("")
|
38 |
|
39 |
# Afficher les probabilités pour le prochain token
|
40 |
+
st.write("**"+tr("Probabilité d'apparition des token:")+"**")
|
41 |
+
for i,(token, proba) in enumerate(probabilities.items()):
|
42 |
+
st.write(f" {i+1} - Token: ->**:red[{token}]**<- ; proba: {proba:.0%}")
|
43 |
|
44 |
# Afficher le texte de la réponse complete
|
45 |
st.write("")
|
46 |
try:
|
47 |
text = response['choices'][0]['text']
|
48 |
+
st.write("**"+tr("Texte de la réponse complète")+":**")
|
49 |
+
st.write("->**:red[" + str(text) + "]**<-")
|
50 |
except KeyError:
|
51 |
+
st.error(tr("La réponse ne contient pas de texte supplémentaire."))
|
52 |
else:
|
53 |
+
st.error(tr("La réponse ne contient pas de texte supplémentaire."))
|
54 |
# st.write("Texte de la réponse complete: ->"+str(response['choices'][0]['text'])+"<-") # Afficher le texte de la réponse
|
55 |
# st.write("")
|
56 |
# st.write(response)
|
|
|
66 |
st.markdown('''
|
67 |
---
|
68 |
''')
|
69 |
+
|
70 |
st.header("**"+tr("Prédiction du token suivant")+"**")
|
71 |
st.markdown(tr(
|
72 |
"""
|
73 |
+
Cet espace a pour objectif d'observer la génération de token par ChatGPT
|
74 |
""")
|
75 |
, unsafe_allow_html=True)
|
76 |
+
st.write("")
|
77 |
if 'OPENAI_API_KEY' in st.session_state:
|
78 |
try:
|
79 |
openai.api_key = st.session_state['OPENAI_API_KEY']
|