alex-abb commited on
Commit
bdc0c30
·
verified ·
1 Parent(s): 7564d66

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -23
app.py CHANGED
@@ -1,6 +1,6 @@
1
  import requests
2
- import os
3
  import json
 
4
 
5
  api_token = os.environ.get("TOKEN")
6
  API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-8B-Instruct"
@@ -51,7 +51,7 @@ assistant
51
  return 'questions'
52
  elif ChatmodelLLM == 2:
53
  return 'Chat Model/LLM'
54
- elif other == 2:
55
  return "Other"
56
  elif image_generation == 2:
57
  return "Image Generation"
@@ -71,7 +71,7 @@ assistant
71
  return f"Erreur: Réponse ambiguë - '{response}'"
72
 
73
  # URL de base de l'API
74
- base_url = "https://huggingface.co/api/posts"
75
 
76
  # Paramètres pour la pagination
77
  skip = 0 # Nombre d'éléments à sauter
@@ -114,16 +114,7 @@ while True:
114
  # Maintenant, all_posts_with_text contient tous les posts récupérés avec leur texte
115
 
116
  # Initialisation des compteurs
117
- questions_count = 0
118
- Chat_ModelLLM_count = 0
119
- Other_count = 0
120
- ImageGeneration_count = 0
121
- Fine_tuning_count = 0
122
- EthicsandBias_count = 0
123
- Datasets_count = 0
124
- ToolsandLibraries_count = 0
125
- Tutorials_and_Guides_count = 0
126
- Debugging_count = 0
127
 
128
  # Appliquer votre algorithme d'analyse à tous les posts
129
  for i, post in enumerate(all_posts_with_text, 1):
@@ -156,13 +147,17 @@ for i, post in enumerate(all_posts_with_text, 1):
156
  Debugging_count += 1
157
 
158
  # Affichage des résultats
159
- print(f"Questions: {questions_count}")
160
- print(f"Chat Model/LLM: {Chat_ModelLLM_count}")
161
- print(f"Other: {Other_count}")
162
- print(f"Image Generation: {ImageGeneration_count}")
163
- print(f"Fine-tuning: {Fine_tuning_count}")
164
- print(f"Ethics and Bias: {EthicsandBias_count}")
165
- print(f"Datasets: {Datasets_count}")
166
- print(f"Tools and Libraries: {ToolsandLibraries_count}")
167
- print(f"Tutorials and Guides: {Tutorials_and_Guides_count}")
168
- print(f"Debugging: {Debugging_count}")
 
 
 
 
 
1
  import requests
 
2
  import json
3
+ import os
4
 
5
  api_token = os.environ.get("TOKEN")
6
  API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-8B-Instruct"
 
51
  return 'questions'
52
  elif ChatmodelLLM == 2:
53
  return 'Chat Model/LLM'
54
+ elif other == 2:
55
  return "Other"
56
  elif image_generation == 2:
57
  return "Image Generation"
 
71
  return f"Erreur: Réponse ambiguë - '{response}'"
72
 
73
  # URL de base de l'API
74
+ base_url = "https://huggingface.co/api/posts?skip=20&sort=recent"
75
 
76
  # Paramètres pour la pagination
77
  skip = 0 # Nombre d'éléments à sauter
 
114
  # Maintenant, all_posts_with_text contient tous les posts récupérés avec leur texte
115
 
116
  # Initialisation des compteurs
117
+ questions_count, Chat_ModelLLM_count, Other_count, ImageGeneration_count, Fine_tuning_count, EthicsandBias_count, Datasets_count, ToolsandLibraries_count, Tutorials_and_Guides_count,Debugging_count = 0,0,0,0,0,0,0,0,0,0
 
 
 
 
 
 
 
 
 
118
 
119
  # Appliquer votre algorithme d'analyse à tous les posts
120
  for i, post in enumerate(all_posts_with_text, 1):
 
147
  Debugging_count += 1
148
 
149
  # Affichage des résultats
150
+ print(
151
+
152
+ f"Questions: {questions_count}",
153
+ f"Chat Model/LLM: {Chat_ModelLLM_count}",
154
+ f"Other: {Other_count}",
155
+ f"Image Generation: {ImageGeneration_count}",
156
+ f"Fine-tuning: {Fine_tuning_count}",
157
+ f"Ethics and Bias: {EthicsandBias_count}",
158
+ f"Datasets: {Datasets_count}",
159
+ f"Tools and Libraries: {ToolsandLibraries_count}",
160
+ f"Tutorials and Guides: {Tutorials_and_Guides_count}",
161
+ f"Debugging: {Debugging_count}"
162
+
163
+ )