bourdoiscatie
commited on
Commit
·
acab10e
1
Parent(s):
1791b00
Update README.md
Browse files
README.md
CHANGED
@@ -25,14 +25,6 @@ multilinguality:
|
|
25 |
- monolingual
|
26 |
---
|
27 |
|
28 |
-
<pre><code class="language-css">.some-box {
|
29 |
-
width: 20px;
|
30 |
-
height: 20px;
|
31 |
-
background: black;
|
32 |
-
margin-bottom: 1.5rem;
|
33 |
-
}
|
34 |
-
</code></pre>
|
35 |
-
|
36 |
# Dataset Card for Dataset of French Prompts (DFP)
|
37 |
|
38 |
TODO :
|
@@ -76,14 +68,11 @@ In our case, the target/output is a score between 0 (the two sentences are seman
|
|
76 |
'Donne le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
|
77 |
</code>
|
78 |
|
79 |
-
|
80 |
An example:
|
81 |
| inputs | targets |
|
82 |
| -------- | ------- |
|
83 |
| Déterminer le score de similarité entre les deux phrases suivantes. Phrase 1 : "Une femme prend et tient un bébé kangourou."<br>Phrase 2 : "Une femme prend et tient un bébé kangourou dans ses bras." | 0.92 |
|
84 |
|
85 |
-
|
86 |
-
|
87 |
## Datasets
|
88 |
### stsb_multi_mt
|
89 |
**Original**: https://huggingface.co/datasets/stsb_multi_mt
|
@@ -105,12 +94,13 @@ The `stsb_multi_mt_fr_prompt_sentence_similarity` dataset has the same license a
|
|
105 |
</details>
|
106 |
|
107 |
|
108 |
-
|
|
|
109 |
Paraphrase detection consists in indicating whether two sentences have the same meaning or not.
|
110 |
In our case, the target/output is "oui" or "non".
|
|
|
111 |
## 22 prompts
|
112 |
-
|
113 |
-
<summary>The prompts list:</summary>
|
114 |
<code>
|
115 |
'Puis-je remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?',<br>
|
116 |
'Peut-on remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?', <br>
|
@@ -135,14 +125,12 @@ In our case, the target/output is "oui" or "non".
|
|
135 |
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', <br>
|
136 |
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'
|
137 |
</code>
|
138 |
-
</details>
|
139 |
|
140 |
An example:
|
141 |
| inputs | targets |
|
142 |
| -------- | ------- |
|
143 |
| Puis-je remplacer la phrase "À Paris, en octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, lui demandant un passeport pour retourner en Angleterre en passant par l'Écosse." par la phrase "En octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, à Paris, et lui demanda un passeport pour retourner en Écosse par l'Angleterre." et que cela garde la même signification ? | Non |
|
144 |
|
145 |
-
|
146 |
## Datasets
|
147 |
### paws-x
|
148 |
**Original**: https://huggingface.co/datasets/paws-x
|
@@ -161,13 +149,16 @@ The dataset may be freely used for any purpose, although acknowledgement of Goog
|
|
161 |
See the DOI at the end of this dataset card.
|
162 |
#### License
|
163 |
The `paws-x_fr_prompt_paraphrase_detection` dataset has the same license as the original dataset from which it is derived.
|
|
|
|
|
164 |
|
165 |
|
166 |
-
# Paraphrase generation
|
167 |
-
Paraphrase generation consists to generate a sentence semantically similar to a given sentence.
|
168 |
-
## 24 prompts
|
169 |
<details>
|
170 |
-
<summary>
|
|
|
|
|
|
|
|
|
171 |
<code>
|
172 |
'Générer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',<br>
|
173 |
'Génère une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
|
@@ -194,15 +185,12 @@ Paraphrase generation consists to generate a sentence semantically similar to a
|
|
194 |
'Rédige une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
|
195 |
'Rédigez une paraphrase de la phrase suivante : "'+sentence1+'"'
|
196 |
</code>
|
197 |
-
</details>
|
198 |
|
199 |
An example:
|
200 |
| inputs | targets |
|
201 |
| -------- | ------- |
|
202 |
| Générer une phrase qui signifie la même chose que celle-ci : "La saison NBA 1975 - 76 était la 30e saison de la National Basketball Association." | La saison 1975-1976 de la National Basketball Association était la 30e saison de la NBA. |
|
203 |
|
204 |
-
|
205 |
-
|
206 |
## Datasets
|
207 |
### paws-x
|
208 |
**Original**: https://huggingface.co/datasets/paws-x
|
@@ -217,14 +205,16 @@ Identical to the first citation of this dataset earlier in the card.
|
|
217 |
See the DOI at the end of this dataset card.
|
218 |
#### License
|
219 |
The `paws-x_fr_prompt_paraphrase_generation` dataset has the same license as the original dataset from which it is derived.
|
|
|
220 |
|
221 |
|
222 |
-
|
|
|
223 |
This task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.
|
224 |
In our case, the target/output is "vrai", "faux" or "incertain".
|
225 |
-
|
226 |
-
|
227 |
-
|
228 |
<code>
|
229 |
"""Prendre l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",<br>
|
230 |
"""Prends l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""", <br>
|
@@ -249,14 +239,12 @@ In our case, the target/output is "vrai", "faux" or "incertain".
|
|
249 |
"""Supposons qu'il est vrai que " """+premise+""" ". Alors, est-ce que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
|
250 |
"""Supposons qu'il soit vrai que " """+premise+""" ",\n Donc, " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?"""
|
251 |
</code>
|
252 |
-
</details>
|
253 |
|
254 |
An example:
|
255 |
| inputs | targets |
|
256 |
| -------- | ------- |
|
257 |
| Prendre l'énoncé suivant comme vrai : "Diorama est le quatrième album studio du groupe australien de rock alternatif Silverchair. Sorti le 31 mars 2002 par Atlantic/. Il a remporté le ARIA Music Award 2002 du meilleur groupe et du meilleur album rock. L'album a été coproduit par Daniel Johns et David Bottrill. Alors que Bottrill avait travaillé sur des albums pour une variété d'autres groupes, "Diorama" a marqué le premier crédit de production pour le chanteur Johns." Alors l'énoncé suivant : "Daniel Johns et David Bottrill n'ont jamais travaillé ensemble" est "vrai", "faux", ou "incertain" ? | faux |
|
258 |
|
259 |
-
|
260 |
## Datasets
|
261 |
### xnli
|
262 |
**Original**: https://huggingface.co/datasets/xnli
|
@@ -272,7 +260,6 @@ Note: only the French portion of this multilingual dataset is kept for our use.
|
|
272 |
#### License
|
273 |
The majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).
|
274 |
|
275 |
-
|
276 |
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/xnli_fr_prompt_textual_entailment
|
277 |
#### Citation
|
278 |
See the DOI at the end of this dataset card.
|
@@ -312,14 +299,15 @@ https://huggingface.co/datasets/CATIE-AQ/wanli_fr_prompt_textual_entailment
|
|
312 |
See the DOI at the end of this dataset card.
|
313 |
#### License
|
314 |
The `anli_fr_prompt_textual_entailment`, `fever_fr_prompt_textual_entailment`, `ling_fr_prompt_textual_entailment`, `mnli_fr_prompt_textual_entailment`, `wanli_fr_prompt_textual_entailment` datasets have the same license as the original dataset from which they are derived.
|
|
|
315 |
|
316 |
|
317 |
-
|
318 |
-
|
319 |
This task involves cutting a very long sentence into two smaller ones to simplify reading.
|
|
|
320 |
## 20 prompts
|
321 |
-
|
322 |
-
<summary>The prompts list:</summary>
|
323 |
<code>
|
324 |
'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',<br>
|
325 |
'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
|
@@ -342,14 +330,12 @@ This task involves cutting a very long sentence into two smaller ones to simplif
|
|
342 |
'"'+source+'" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', <br>
|
343 |
'"'+source+'" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '
|
344 |
</code>
|
345 |
-
</details>
|
346 |
|
347 |
An example:
|
348 |
| inputs | targets |
|
349 |
| -------- | ------- |
|
350 |
| "N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur." Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : | Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. |
|
351 |
|
352 |
-
|
353 |
## Datasets
|
354 |
### GEM/BiSECT
|
355 |
**Original**: https://huggingface.co/datasets/GEM/BiSECT
|
@@ -368,13 +354,16 @@ cc-by-nc-4.0
|
|
368 |
See the DOI at the end of this dataset card.
|
369 |
#### License
|
370 |
The `bisect_fr_prompt_textual_simplification` dataset has the same license as the original dataset from which it is derived.
|
|
|
|
|
371 |
|
|
|
|
|
372 |
|
373 |
-
# Sentence simplification
|
374 |
This task involves merging two short sentences into a single longer one.
|
|
|
375 |
## 21 prompts
|
376 |
-
|
377 |
-
<summary>The prompts list:</summary>
|
378 |
<code>
|
379 |
'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
|
380 |
'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
|
@@ -398,14 +387,12 @@ This task involves merging two short sentences into a single longer one.
|
|
398 |
'"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', <br>
|
399 |
'"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '
|
400 |
</code>
|
401 |
-
</details>
|
402 |
|
403 |
An example:
|
404 |
| inputs | targets |
|
405 |
| -------- | ------- |
|
406 |
| "Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. Rédigez une version synonyme en une phrase des deux phrases précédentes : | N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur. |
|
407 |
|
408 |
-
|
409 |
## Datasets
|
410 |
### GEM/BiSECT
|
411 |
**Original**: https://huggingface.co/datasets/GEM/BiSECT
|
@@ -420,14 +407,17 @@ Identical to the first citation of this dataset earlier in the card.
|
|
420 |
See the DOI at the end of this dataset card.
|
421 |
#### License
|
422 |
The `bisect_fr_prompt_textual_fusion` dataset has the same license as the original dataset from which it is derived.
|
|
|
423 |
|
424 |
|
425 |
|
426 |
-
|
|
|
|
|
427 |
A Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.
|
|
|
428 |
## 10 prompts
|
429 |
-
|
430 |
-
<summary>The prompts list:</summary>
|
431 |
<code>
|
432 |
'"'+sentence+'"\nRemplacer le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
|
433 |
'"'+sentence+'"\nRemplace le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
|
@@ -440,13 +430,11 @@ A Winograd schema is a pair of sentences that differ by only one or two words an
|
|
440 |
'Remplissez le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :', <br>
|
441 |
'Dans la phrase ci-dessous, le "_" renvoie-t-il à "'+option1+'" ou "'+option2+'" ? : '+sentence,
|
442 |
</code>
|
443 |
-
</details>
|
444 |
|
445 |
| inputs | targets |
|
446 |
| -------- | ------- |
|
447 |
| "La coupe n'entre pas dans la valise marron, car _ est trop grande." Remplacer le "_" dans la phrase ci-dessus par la bonne option : <br>- "La coupe" <br>- "la valise" | La coupe |
|
448 |
|
449 |
-
|
450 |
## Datasets
|
451 |
### Muennighoff/xwinograd
|
452 |
**Original**: https://huggingface.co/datasets/Muennighoff/xwinograd
|
@@ -482,15 +470,18 @@ MIT
|
|
482 |
See the DOI at the end of this dataset card.
|
483 |
#### License
|
484 |
The `https://huggingface.co/datasets/CATIE-AQ/wino_x_fr_prompt_coreference` dataset has the same license as the original dataset from which it is derived.
|
|
|
485 |
|
486 |
|
487 |
|
488 |
-
|
|
|
|
|
489 |
The goal is to classify a text into one of two categories: positive or negative.
|
490 |
In our case, the target/output is "pos" (for positive) or "neg" (for negative).
|
|
|
491 |
## 28 prompts
|
492 |
-
|
493 |
-
<summary>The prompts list:</summary>
|
494 |
<code>
|
495 |
'Commentaire : "'+review+'" Le commentaire est-il positif ou négatif ?', <br>
|
496 |
"""Avis : " """+review+""" " L'avis est-il positif ou négatif ?""", <br>
|
@@ -521,11 +512,13 @@ In our case, the target/output is "pos" (for positive) or "neg" (for negative).
|
|
521 |
'La critique suivante exprime quel sentiment ?\n Critique' +review, <br>
|
522 |
"""L'évaluation suivante exprime quel sentiment ?\n Evaluation""" +review
|
523 |
</code>
|
524 |
-
</details>
|
525 |
|
526 |
-
An example :
|
527 |
|
528 |
-
|
|
|
|
|
|
|
|
|
529 |
## Datasets
|
530 |
### Abirate/french_book_reviews
|
531 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
@@ -572,16 +565,17 @@ https://docs.opendata.aws/amazon-reviews-ml/license.txt
|
|
572 |
See the DOI at the end of this dataset card.
|
573 |
#### License
|
574 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
|
|
575 |
|
576 |
|
577 |
-
|
578 |
-
|
579 |
-
|
580 |
In the (extractive) Question Answering task, the model answers a question based on an associated contextual text.
|
581 |
Note that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.
|
|
|
582 |
## 42 prompts
|
583 |
-
|
584 |
-
<summary>The prompts list:</summary>
|
585 |
<code>
|
586 |
# SQUAD 1.0 format
|
587 |
'Question : "'+question+'"\nContexte : "'+context+'" Réponse :', <br>
|
@@ -628,9 +622,9 @@ Note that here we handle cases where the answer is indeed in the text provided,
|
|
628 |
'Lis le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
|
629 |
'Lisez le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
|
630 |
</code>
|
631 |
-
</details>
|
632 |
|
633 |
-
|
|
|
634 |
|
635 |
|
636 |
## Datasets
|
@@ -675,7 +669,7 @@ CC BY-NC-SA 3.0
|
|
675 |
A DEMANDER
|
676 |
#### License
|
677 |
CC BY-NC-SA 4.0
|
678 |
-
|
679 |
|
680 |
|
681 |
# Context generation with question and answer
|
@@ -1235,11 +1229,12 @@ See the DOI at the end of this dataset card.
|
|
1235 |
The `paws-x_fr_prompt_paraphrase_generation` dataset has the same license as the original dataset from which it is derived.
|
1236 |
|
1237 |
|
1238 |
-
|
|
|
|
|
1239 |
Summarization is the task of producing a shorter version of a document while preserving its important information.
|
1240 |
## 28 prompts
|
1241 |
-
|
1242 |
-
<summary>The prompts list:</summary>
|
1243 |
<code>
|
1244 |
'Résumer le texte suivant : "'+document+'"', <br>
|
1245 |
'Résume le texte suivant : "'+document+'"', <br>
|
@@ -1270,7 +1265,6 @@ Summarization is the task of producing a shorter version of a document while pre
|
|
1270 |
'"'+document+' Rédige un résumé du texte ci-dessus : ', <br>
|
1271 |
'"'+document+' Rédigez un résumé du texte ci-dessus : '
|
1272 |
</code>
|
1273 |
-
</details>
|
1274 |
|
1275 |
An example:
|
1276 |
| inputs | targets |
|
@@ -1296,13 +1290,15 @@ CC-BY-SA-4.0
|
|
1296 |
See the DOI at the end of this dataset card.
|
1297 |
#### License
|
1298 |
The `orange_sum_fr_prompt_summary` dataset has the same license as the original dataset from which it is derived.
|
|
|
|
|
1299 |
|
|
|
|
|
1300 |
|
1301 |
-
# Text generation from a text
|
1302 |
The task consists in using a text base to generate a suite to this text.
|
1303 |
## 24 prompts
|
1304 |
-
|
1305 |
-
<summary>The prompts list:</summary>
|
1306 |
<code>
|
1307 |
'"'+document+'"\n Continuer le texte sur 1000 caractères maximum :', <br>
|
1308 |
'"'+document+'"\n Continue le texte sur 1000 caractères maximum :', <br>
|
@@ -1329,14 +1325,12 @@ The task consists in using a text base to generate a suite to this text.
|
|
1329 |
'"'+document+'"\nGénère la suite du texte : ', <br>
|
1330 |
'"'+document+'"\n Générez la suite du texte : ',
|
1331 |
</code>
|
1332 |
-
</details>
|
1333 |
|
1334 |
An example:
|
1335 |
| inputs | targets |
|
1336 |
| -------- | ------- |
|
1337 |
| "Après une septième édition impressionnante, Danse avec les stars a confirmé son statut de programme incontournable dans le paysage audiovisuel français actuel. Avec des chorégraphies millimétrées, une production classieuse, des candidats survoltés et un jury de professionnels passionné, TF1 offre chaque semaine aux fidèles de l'émission une représentation exceptionnelle. Mais si la prochaine année du concours était celle du changement ? En effet, il se pourrait bien qu'un pilier du show ne rempile pas pour la saison 8...Un membre incontournableEt ce n'est autre que l'une des juges qui vient d'émettre des réserves pour noter les futures célébrités qui fouleront le dance-floor de DALS ! Marie-Claude Pietragalla a en effet révélé que son retour était probablement compromis, ce qui ne manque pas de décevoir ses fans. Bien qu'elle ne soit pas un élément historique de cette immense locomotive, elle répond néanmoins présente à l'appel depuis 2012, gratifiant les participants de ses conseils p" Continuer le texte sur 1000 caractères maximum : | ointus et ses avis sensibles. Mais hélas, cette fois-ci, la danseuse contemporaine pourrait ne pas être en mesure de se libérer...Un planning trop chargéInterviewée par le journal Var Matin, dans le cadre de la promotion de son spectacle "Je t'ai rencontré par hasard" et pour évoquer ses ambitions, Pietra pour les intimes a expliqué avec sincérité : "Ecoutez, là je ne sais pas si je vais continuer parce que j'ai beaucoup de projets pour l'année prochaine." Ainsi, du fait d'un calendrier déjà très chargé, elle ne pourrait donc pas effectuer son come-back au côté de ses pétillants acolytes Fauve Hautot, Chris Marques et Jean-Marc Généreux... s'ils resignent. Seriez-vous triste de ce départ ou pensez-vous, au contraire, qu'un changement du jury (à l'instar de The Voice) permettrait à Danse avec les stars de se renouveler ? |
|
1338 |
|
1339 |
-
|
1340 |
## Datasets
|
1341 |
### orange_sum
|
1342 |
Note: we use the split `abstract`
|
@@ -1351,14 +1345,14 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1351 |
See the DOI at the end of this dataset card.
|
1352 |
#### License
|
1353 |
The `orange_sum_fr_prompt_text_generation` dataset has the same license as the original dataset from which it is derived.
|
|
|
1354 |
|
|
|
|
|
1355 |
|
1356 |
-
|
1357 |
-
# Title generation (from a text)
|
1358 |
The aim is to generate a title for a given text.
|
1359 |
## 19 prompts
|
1360 |
-
|
1361 |
-
<summary>The prompts list:</summary>
|
1362 |
<code>
|
1363 |
'"'+document+'"\n Générer un titre pour cet article :', <br>
|
1364 |
'"'+document+'"\n Génère un titre pour cet article :', <br>
|
@@ -1380,7 +1374,6 @@ The aim is to generate a title for a given text.
|
|
1380 |
"Ecrivez un titre pour l'article suivant : "+document,
|
1381 |
'"'+document+'"\n Titre :\n '
|
1382 |
</code>
|
1383 |
-
</details>
|
1384 |
|
1385 |
An example:
|
1386 |
| inputs | targets |
|
@@ -1401,15 +1394,16 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1401 |
See the DOI at the end of this dataset card.
|
1402 |
#### License
|
1403 |
The `orange_sum_fr_prompt_title_generation` dataset has the same license as the original dataset from which it is derived.
|
|
|
1404 |
|
1405 |
|
|
|
|
|
1406 |
|
1407 |
-
# Fill mask
|
1408 |
Masked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.
|
1409 |
In our case, for a given text, we have hidden one word per sentence of the text.
|
1410 |
## 24 prompts
|
1411 |
-
|
1412 |
-
<summary>The prompts list:</summary>
|
1413 |
<code>
|
1414 |
'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,<br>
|
1415 |
'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
|
@@ -1436,8 +1430,7 @@ In our case, for a given text, we have hidden one word per sentence of the text.
|
|
1436 |
'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text, <br>
|
1437 |
'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,
|
1438 |
</code>
|
1439 |
-
|
1440 |
-
|
1441 |
An example:
|
1442 |
| inputs | targets |
|
1443 |
| -------- | ------- |
|
@@ -1457,14 +1450,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1457 |
See the DOI at the end of this dataset card.
|
1458 |
#### License
|
1459 |
The `orange_sum_fr_prompt_fill_mask` dataset has the same license as the original dataset from which it is derived.
|
|
|
1460 |
|
1461 |
|
|
|
|
|
1462 |
|
1463 |
-
# Binary text generation from a title
|
1464 |
The aim is to generate a text positive ou negative depending on the prompt selected by the user.
|
1465 |
## 36 prompts
|
1466 |
-
|
1467 |
-
<summary>The prompts list:</summary>
|
1468 |
<code>
|
1469 |
# negative
|
1470 |
'Rédiger un commentaire négatif dont le titre est : "'+title+'"".', <br>
|
@@ -1541,14 +1535,12 @@ The aim is to generate a text positive ou negative depending on the prompt selec
|
|
1541 |
'Titre : "'+title +'"\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ',<br>
|
1542 |
'Titre : "'+title +'"\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',
|
1543 |
</code>
|
1544 |
-
</details>
|
1545 |
|
1546 |
An example:
|
1547 |
| inputs | targets |
|
1548 |
| -------- | ------- |
|
1549 |
| Rédiger un commentaire négatif dont le titre est : "A éviter!"".| Cet engin ne sert à rien les sons sont pourris les songs sont simplistes vous n'apprendrez jamais à jouer de la batterie avec une bouze pareille. En fait c'est juste un jouet destiné aux enfants et rien d'autre. Si vous voulez vraiment quelque chose de bien et d'utile passez votre chemin et gardez votre fric moi j'ai voulu essayer et j'ai été très mais alors très déçu. Résultat direction poubelle.|
|
1550 |
|
1551 |
-
|
1552 |
## Datasets
|
1553 |
### Abirate/french_book_reviews
|
1554 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
@@ -1577,16 +1569,17 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1577 |
See the DOI at the end of this dataset card.
|
1578 |
#### License
|
1579 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_base_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
|
|
1580 |
|
1581 |
|
1582 |
|
1583 |
-
|
1584 |
-
|
|
|
1585 |
The aim is to generate a text from a title of a review text type.
|
1586 |
|
1587 |
## 36 prompts
|
1588 |
-
|
1589 |
-
<summary>The prompts list:</summary>
|
1590 |
<code>
|
1591 |
'Rédiger un commentaire dont le titre est : "'+title+'"',<br>
|
1592 |
'Rédige un commentaire dont le titre est : "'+title+'"',<br>
|
@@ -1625,7 +1618,6 @@ The aim is to generate a text from a title of a review text type.
|
|
1625 |
'Titre : "'+title +'"\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ',<br>
|
1626 |
'Titre : "'+title +'"\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',
|
1627 |
</code>
|
1628 |
-
</details>
|
1629 |
|
1630 |
An example:
|
1631 |
| inputs | targets |
|
@@ -1645,14 +1637,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1645 |
See the DOI at the end of this dataset card.
|
1646 |
#### License
|
1647 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_base_topic_classification` dataset has the same license as the original dataset from which it is derived.
|
|
|
1648 |
|
1649 |
|
|
|
|
|
1650 |
|
1651 |
-
# Text generation from a title
|
1652 |
Text generation from a title.
|
1653 |
## 27 prompts
|
1654 |
-
|
1655 |
-
<summary>The prompts list:</summary>
|
1656 |
<code>
|
1657 |
'Rédiger un texte dont le titre est : "'+title+'".', <br>
|
1658 |
'Rédige un texte dont le titre est : "'+title+'".',<br>
|
@@ -1682,14 +1675,12 @@ Text generation from a title.
|
|
1682 |
'"'+title +'"\n Ecris un document de 1 à 5 phrases sur le titre précédent : ',<br>
|
1683 |
'"'+title +'"\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '
|
1684 |
</code>
|
1685 |
-
</details>
|
1686 |
|
1687 |
An example:
|
1688 |
| inputs | targets |
|
1689 |
| -------- | ------- |
|
1690 |
| Rédiger un texte dont le titre est : "The Voice : un candidat malvoyant enflamme le jury". | Samedi soir sur TF1 débutait la saison 6 de The Voice. Et dès le premier prime un candidat est sorti du lot : Vincent, 20 ans, presque aveugle et un talent fou au piano et au chant. Le jeune homme a rendu dingue le jury et le public avec son interprétation du tube d'Eminem, "Lose Yourself". Matt Pokora, Mika, Florent Pagny et Zazie, les quatre coachs conquis par sa prestation, l'ont rejoint sur scène. Vincent Vinel fera finalement partie de l'équipe de Mika. Celui-ci s'en est félicité : "C'était une belle expérience et un beau moment. Je suis très honoré de t'avoir dans mon équipe", a ainsi indiqué le chanteur. |
|
1691 |
|
1692 |
-
|
1693 |
## Datasets
|
1694 |
## Datasets
|
1695 |
### orange_sum
|
@@ -1705,14 +1696,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1705 |
See the DOI at the end of this dataset card.
|
1706 |
#### License
|
1707 |
The `orange_sum_fr_prompt_text_generation_from_title` dataset has the same license as the original dataset from which it is derived.
|
|
|
1708 |
|
1709 |
|
|
|
|
|
1710 |
|
1711 |
-
# Title generation (from reviews)
|
1712 |
The aim is to generate a title for a given text which is a review.
|
1713 |
## 18 prompts
|
1714 |
-
|
1715 |
-
<summary>The prompts list:</summary>
|
1716 |
<code>
|
1717 |
review+'\n Générer un titre pour cet avis : ', <br>
|
1718 |
review+'\n Génère un titre pour cet avis : ', <br>
|
@@ -1734,7 +1726,6 @@ review+'\n Ecrivez un titre pour cet avis : ', <br>
|
|
1734 |
"""Ecrivez un titre pour l'avis suivant : """+review,
|
1735 |
review+'\n Titre :\n '
|
1736 |
</code>
|
1737 |
-
</details>
|
1738 |
|
1739 |
An example:
|
1740 |
| inputs | targets |
|
@@ -1754,14 +1745,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1754 |
See the DOI at the end of this dataset card.
|
1755 |
#### License
|
1756 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
|
|
1757 |
|
1758 |
|
|
|
|
|
1759 |
|
1760 |
-
# Classes classfication
|
1761 |
Task of assigning a label/class to a given text.
|
1762 |
## 21 prompts
|
1763 |
-
|
1764 |
-
<summary>The prompts list:</summary>
|
1765 |
<code>
|
1766 |
'Le texte suivant parle-t-il de "'+classes+'" ?\n Texte : '+text,<br>
|
1767 |
'Le texte suivant concerne-t-il "'+classes+'" ?\n Texte : '+text,<br>
|
@@ -1785,7 +1777,6 @@ text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle cl
|
|
1785 |
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
|
1786 |
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
|
1787 |
</code>
|
1788 |
-
</details>
|
1789 |
|
1790 |
An example:
|
1791 |
| inputs | targets |
|
@@ -1806,15 +1797,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1806 |
See the DOI at the end of this dataset card.
|
1807 |
#### License
|
1808 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_classes_classification` dataset has the same license as the original dataset from which it is derived.
|
|
|
1809 |
|
1810 |
|
|
|
|
|
1811 |
|
1812 |
-
|
1813 |
-
# Stars classfication
|
1814 |
Task consisting in assigning a score between 1 and 5 to a review text.
|
1815 |
## 22 prompts
|
1816 |
-
|
1817 |
-
<summary>The prompts list:</summary>
|
1818 |
<code>
|
1819 |
"""Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
|
1820 |
"""Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
|
@@ -1839,14 +1830,12 @@ review+'Pour ce texte, je donne la note de ',<br>
|
|
1839 |
'Texte : '+review+'\n Note (entre 1 et 5) :',<br>
|
1840 |
'Commentaire : '+review+'\n Sur une échelle de 1 à 5, je donnerais une note de :'
|
1841 |
</code>
|
1842 |
-
</details>
|
1843 |
|
1844 |
An example:
|
1845 |
| inputs | targets |
|
1846 |
| -------- | ------- |
|
1847 |
| Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : A déconseiller - Article n'a fonctionné qu'une fois - Je ne recommande pas du tout ce produit - Je l'ai jeté ...| 1 |
|
1848 |
|
1849 |
-
|
1850 |
## Datasets
|
1851 |
### Abirate/french_book_reviews
|
1852 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
@@ -1875,14 +1864,15 @@ Identical to the first citation of this dataset earlier in the card.
|
|
1875 |
See the DOI at the end of this dataset card.
|
1876 |
#### License
|
1877 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_stars_classification` dataset has the same license as the original dataset from which it is derived.
|
|
|
1878 |
|
1879 |
|
|
|
|
|
1880 |
|
1881 |
-
# Intent classfication
|
1882 |
Task consisting in assigning an intent to a text.
|
1883 |
## 30 prompts
|
1884 |
-
|
1885 |
-
<summary>The prompts list:</summary>
|
1886 |
<code>
|
1887 |
text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',<br>
|
1888 |
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',<br>
|
@@ -1915,7 +1905,6 @@ text+"""\n Étant donné la liste d'intentions suivante : " """+classes+""" ",
|
|
1915 |
'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
|
1916 |
'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
|
1917 |
</code>
|
1918 |
-
</details>
|
1919 |
|
1920 |
An example:
|
1921 |
| inputs | targets |
|
@@ -1962,7 +1951,7 @@ Unknown
|
|
1962 |
See the DOI at the end of this dataset card.
|
1963 |
#### License
|
1964 |
The `https://huggingface.co/datasets/CATIE-AQ/mtop_domain_intent_fr_prompt_intent_classification` dataset has the same license as the original dataset from which it is derived.
|
1965 |
-
|
1966 |
|
1967 |
|
1968 |
# NER
|
|
|
25 |
- monolingual
|
26 |
---
|
27 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
28 |
# Dataset Card for Dataset of French Prompts (DFP)
|
29 |
|
30 |
TODO :
|
|
|
68 |
'Donne le score de similarité entre la phrase : "'+sentence1+'"\n et la phrase : "'+sentence2+'"\n Similarité : ',
|
69 |
</code>
|
70 |
|
|
|
71 |
An example:
|
72 |
| inputs | targets |
|
73 |
| -------- | ------- |
|
74 |
| Déterminer le score de similarité entre les deux phrases suivantes. Phrase 1 : "Une femme prend et tient un bébé kangourou."<br>Phrase 2 : "Une femme prend et tient un bébé kangourou dans ses bras." | 0.92 |
|
75 |
|
|
|
|
|
76 |
## Datasets
|
77 |
### stsb_multi_mt
|
78 |
**Original**: https://huggingface.co/datasets/stsb_multi_mt
|
|
|
94 |
</details>
|
95 |
|
96 |
|
97 |
+
<details>
|
98 |
+
<summary><h1>Paraphrase detection</h1></summary>
|
99 |
Paraphrase detection consists in indicating whether two sentences have the same meaning or not.
|
100 |
In our case, the target/output is "oui" or "non".
|
101 |
+
|
102 |
## 22 prompts
|
103 |
+
|
|
|
104 |
<code>
|
105 |
'Puis-je remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?',<br>
|
106 |
'Peut-on remplacer la phrase "'+sentence1+'" par la phrase "'+sentence2+'" et que cela garde la même signification ?', <br>
|
|
|
125 |
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ?', <br>
|
126 |
'Phrase 1 : "'+sentence1+'"\n Phrase 2 : "'+sentence2+'"\n Question : La phrase 1 paraphrase-t-elle la phrase 2 ? Oui ou Non ?'
|
127 |
</code>
|
|
|
128 |
|
129 |
An example:
|
130 |
| inputs | targets |
|
131 |
| -------- | ------- |
|
132 |
| Puis-je remplacer la phrase "À Paris, en octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, lui demandant un passeport pour retourner en Angleterre en passant par l'Écosse." par la phrase "En octobre 1560, il rencontra secrètement l'ambassadeur d'Angleterre, Nicolas Throckmorton, à Paris, et lui demanda un passeport pour retourner en Écosse par l'Angleterre." et que cela garde la même signification ? | Non |
|
133 |
|
|
|
134 |
## Datasets
|
135 |
### paws-x
|
136 |
**Original**: https://huggingface.co/datasets/paws-x
|
|
|
149 |
See the DOI at the end of this dataset card.
|
150 |
#### License
|
151 |
The `paws-x_fr_prompt_paraphrase_detection` dataset has the same license as the original dataset from which it is derived.
|
152 |
+
</details>
|
153 |
+
|
154 |
|
155 |
|
|
|
|
|
|
|
156 |
<details>
|
157 |
+
<summary><h1>Paraphrase generation</h1></summary>
|
158 |
+
Paraphrase generation consists to generate a sentence semantically similar to a given sentence.
|
159 |
+
|
160 |
+
## 24 prompts
|
161 |
+
|
162 |
<code>
|
163 |
'Générer une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"',<br>
|
164 |
'Génère une phrase qui signifie la même chose que celle-ci : "'+sentence1+'"', <br>
|
|
|
185 |
'Rédige une paraphrase de la phrase suivante : "'+sentence1+'"', <br>
|
186 |
'Rédigez une paraphrase de la phrase suivante : "'+sentence1+'"'
|
187 |
</code>
|
|
|
188 |
|
189 |
An example:
|
190 |
| inputs | targets |
|
191 |
| -------- | ------- |
|
192 |
| Générer une phrase qui signifie la même chose que celle-ci : "La saison NBA 1975 - 76 était la 30e saison de la National Basketball Association." | La saison 1975-1976 de la National Basketball Association était la 30e saison de la NBA. |
|
193 |
|
|
|
|
|
194 |
## Datasets
|
195 |
### paws-x
|
196 |
**Original**: https://huggingface.co/datasets/paws-x
|
|
|
205 |
See the DOI at the end of this dataset card.
|
206 |
#### License
|
207 |
The `paws-x_fr_prompt_paraphrase_generation` dataset has the same license as the original dataset from which it is derived.
|
208 |
+
</details>
|
209 |
|
210 |
|
211 |
+
<details>
|
212 |
+
<summary><h1>Textual entailment</h1></summary>
|
213 |
This task consists of indicating whether a hypothesis applied to a sentence is true, false or unsure.
|
214 |
In our case, the target/output is "vrai", "faux" or "incertain".
|
215 |
+
|
216 |
+
## 22 prompts
|
217 |
+
|
218 |
<code>
|
219 |
"""Prendre l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""",<br>
|
220 |
"""Prends l'énoncé suivant comme vrai : " """+premise+""" "\n Alors l'énoncé suivant : " """+hypothesis+""" " est "vrai", "faux", ou "incertain" ?""", <br>
|
|
|
239 |
"""Supposons qu'il est vrai que " """+premise+""" ". Alors, est-ce que " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?""", <br>
|
240 |
"""Supposons qu'il soit vrai que " """+premise+""" ",\n Donc, " """+hypothesis+""" " ? "vrai", "faux", ou "incertain" ?"""
|
241 |
</code>
|
|
|
242 |
|
243 |
An example:
|
244 |
| inputs | targets |
|
245 |
| -------- | ------- |
|
246 |
| Prendre l'énoncé suivant comme vrai : "Diorama est le quatrième album studio du groupe australien de rock alternatif Silverchair. Sorti le 31 mars 2002 par Atlantic/. Il a remporté le ARIA Music Award 2002 du meilleur groupe et du meilleur album rock. L'album a été coproduit par Daniel Johns et David Bottrill. Alors que Bottrill avait travaillé sur des albums pour une variété d'autres groupes, "Diorama" a marqué le premier crédit de production pour le chanteur Johns." Alors l'énoncé suivant : "Daniel Johns et David Bottrill n'ont jamais travaillé ensemble" est "vrai", "faux", ou "incertain" ? | faux |
|
247 |
|
|
|
248 |
## Datasets
|
249 |
### xnli
|
250 |
**Original**: https://huggingface.co/datasets/xnli
|
|
|
260 |
#### License
|
261 |
The majority of the corpus sentences are released under the OANC’s license which allows all content to be freely used, modified, and shared under permissive terms. The data in the Fiction genre from Captain Blood are in the public domain in the United States (but may be licensed differently elsewhere).
|
262 |
|
|
|
263 |
**With prompts**: https://huggingface.co/datasets/CATIE-AQ/xnli_fr_prompt_textual_entailment
|
264 |
#### Citation
|
265 |
See the DOI at the end of this dataset card.
|
|
|
299 |
See the DOI at the end of this dataset card.
|
300 |
#### License
|
301 |
The `anli_fr_prompt_textual_entailment`, `fever_fr_prompt_textual_entailment`, `ling_fr_prompt_textual_entailment`, `mnli_fr_prompt_textual_entailment`, `wanli_fr_prompt_textual_entailment` datasets have the same license as the original dataset from which they are derived.
|
302 |
+
</details>
|
303 |
|
304 |
|
305 |
+
<details>
|
306 |
+
<summary><h1>Sentence simplification</h1></summary>
|
307 |
This task involves cutting a very long sentence into two smaller ones to simplify reading.
|
308 |
+
|
309 |
## 20 prompts
|
310 |
+
|
|
|
311 |
<code>
|
312 |
'Simplifier la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ',<br>
|
313 |
'Simplifie la phrase suivante en la divisant tout en conservant son sens complet : "'+source+'" Version simplifiée : ', <br>
|
|
|
330 |
'"'+source+'" Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : ', <br>
|
331 |
'"'+source+'" Cette phrase est lourde. Une version épurée avec une signification équivalente est la suivante : '
|
332 |
</code>
|
|
|
333 |
|
334 |
An example:
|
335 |
| inputs | targets |
|
336 |
| -------- | ------- |
|
337 |
| "N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur." Cette phrase est lourde. Une version plus légère avec une signification équivalente est la suivante : | Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. |
|
338 |
|
|
|
339 |
## Datasets
|
340 |
### GEM/BiSECT
|
341 |
**Original**: https://huggingface.co/datasets/GEM/BiSECT
|
|
|
354 |
See the DOI at the end of this dataset card.
|
355 |
#### License
|
356 |
The `bisect_fr_prompt_textual_simplification` dataset has the same license as the original dataset from which it is derived.
|
357 |
+
</details>
|
358 |
+
|
359 |
|
360 |
+
<details>
|
361 |
+
<summary><h1>Sentence simplification</h1></summary>
|
362 |
|
|
|
363 |
This task involves merging two short sentences into a single longer one.
|
364 |
+
|
365 |
## 21 prompts
|
366 |
+
|
|
|
367 |
<code>
|
368 |
'Fusionner les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
|
369 |
'Fusionne les deux phrases suivantes en une seule tout en conservant leurs sens : "'+source+'" Version fusionnée : ', <br>
|
|
|
387 |
'"'+source+' Génère une version synonyme en une phrase des deux phrases précédentes : ', <br>
|
388 |
'"'+source+' Générez une version synonyme en une phrase des deux phrases précédentes : '
|
389 |
</code>
|
|
|
390 |
|
391 |
An example:
|
392 |
| inputs | targets |
|
393 |
| -------- | ------- |
|
394 |
| "Il ne faut pas avoir peur de poser des questions. Il vaut mieux prendre 5 minutes pour poser une question que de passer le double du temps à réparer les erreurs futures. Rédigez une version synonyme en une phrase des deux phrases précédentes : | N'ayez pas peur de poser des questions, il vaut mieux prendre quelques minutes pour poser les questions, puis passer le double du temps à corriger un problème ultérieur. |
|
395 |
|
|
|
396 |
## Datasets
|
397 |
### GEM/BiSECT
|
398 |
**Original**: https://huggingface.co/datasets/GEM/BiSECT
|
|
|
407 |
See the DOI at the end of this dataset card.
|
408 |
#### License
|
409 |
The `bisect_fr_prompt_textual_fusion` dataset has the same license as the original dataset from which it is derived.
|
410 |
+
</details>
|
411 |
|
412 |
|
413 |
|
414 |
+
<details>
|
415 |
+
<summary><h1>Coreference</h1></summary>
|
416 |
+
|
417 |
A Winograd schema is a pair of sentences that differ by only one or two words and contain an ambiguity that is resolved in opposite ways in both sentences, requiring the use of world knowledge and reasoning for its resolution.
|
418 |
+
|
419 |
## 10 prompts
|
420 |
+
|
|
|
421 |
<code>
|
422 |
'"'+sentence+'"\nRemplacer le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
|
423 |
'"'+sentence+'"\nRemplace le "_" dans la phrase ci-dessus par la bonne option :\n- "'+option1+'"\n- "'+option2+'"', <br>
|
|
|
430 |
'Remplissez le "_" de la phrase suivante : "'+sentence+ '"\nChoix :\n- "'+option1+'"\n- "'+option2+'"\nRéponse :', <br>
|
431 |
'Dans la phrase ci-dessous, le "_" renvoie-t-il à "'+option1+'" ou "'+option2+'" ? : '+sentence,
|
432 |
</code>
|
|
|
433 |
|
434 |
| inputs | targets |
|
435 |
| -------- | ------- |
|
436 |
| "La coupe n'entre pas dans la valise marron, car _ est trop grande." Remplacer le "_" dans la phrase ci-dessus par la bonne option : <br>- "La coupe" <br>- "la valise" | La coupe |
|
437 |
|
|
|
438 |
## Datasets
|
439 |
### Muennighoff/xwinograd
|
440 |
**Original**: https://huggingface.co/datasets/Muennighoff/xwinograd
|
|
|
470 |
See the DOI at the end of this dataset card.
|
471 |
#### License
|
472 |
The `https://huggingface.co/datasets/CATIE-AQ/wino_x_fr_prompt_coreference` dataset has the same license as the original dataset from which it is derived.
|
473 |
+
</details>
|
474 |
|
475 |
|
476 |
|
477 |
+
<details>
|
478 |
+
<summary><h1>Sentiment analysis</h1></summary>
|
479 |
+
|
480 |
The goal is to classify a text into one of two categories: positive or negative.
|
481 |
In our case, the target/output is "pos" (for positive) or "neg" (for negative).
|
482 |
+
|
483 |
## 28 prompts
|
484 |
+
|
|
|
485 |
<code>
|
486 |
'Commentaire : "'+review+'" Le commentaire est-il positif ou négatif ?', <br>
|
487 |
"""Avis : " """+review+""" " L'avis est-il positif ou négatif ?""", <br>
|
|
|
512 |
'La critique suivante exprime quel sentiment ?\n Critique' +review, <br>
|
513 |
"""L'évaluation suivante exprime quel sentiment ?\n Evaluation""" +review
|
514 |
</code>
|
|
|
515 |
|
|
|
516 |
|
517 |
+
An example:
|
518 |
+
| inputs | targets |
|
519 |
+
| -------- | ------- |
|
520 |
+
| Evaluation : " Alors franchement pour le moment c'est le meilleur films de Noël pour moi, et les acteurs sont plutôt bon, et l'histoire et vraiment cool, je le conseil vraiment il est cool. " L'évaluation est-elle positive ou négative ?|pos|
|
521 |
+
|
522 |
## Datasets
|
523 |
### Abirate/french_book_reviews
|
524 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
|
|
565 |
See the DOI at the end of this dataset card.
|
566 |
#### License
|
567 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
568 |
+
</details>
|
569 |
|
570 |
|
571 |
+
<details>
|
572 |
+
<summary><h1>Question Answering</h1></summary>
|
573 |
+
|
574 |
In the (extractive) Question Answering task, the model answers a question based on an associated contextual text.
|
575 |
Note that here we handle cases where the answer is indeed in the text provided, but also the case where the answer may not be present in the text.
|
576 |
+
|
577 |
## 42 prompts
|
578 |
+
|
|
|
579 |
<code>
|
580 |
# SQUAD 1.0 format
|
581 |
'Question : "'+question+'"\nContexte : "'+context+'" Réponse :', <br>
|
|
|
622 |
'Lis le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si tu ne trouves pas la réponse, répondre "sans réponse".', <br>
|
623 |
'Lisez le passage suivant et répondez à la question qui suit : \n "'+context+'"\n "'+question+'"\n Si vous ne trouvez pas la réponse, répondre "sans réponse".',
|
624 |
</code>
|
|
|
625 |
|
626 |
+
|
627 |
+
An example:
|
628 |
|
629 |
|
630 |
## Datasets
|
|
|
669 |
A DEMANDER
|
670 |
#### License
|
671 |
CC BY-NC-SA 4.0
|
672 |
+
</details>
|
673 |
|
674 |
|
675 |
# Context generation with question and answer
|
|
|
1229 |
The `paws-x_fr_prompt_paraphrase_generation` dataset has the same license as the original dataset from which it is derived.
|
1230 |
|
1231 |
|
1232 |
+
<details>
|
1233 |
+
<summary><h1>Summary</h1></summary>
|
1234 |
+
|
1235 |
Summarization is the task of producing a shorter version of a document while preserving its important information.
|
1236 |
## 28 prompts
|
1237 |
+
|
|
|
1238 |
<code>
|
1239 |
'Résumer le texte suivant : "'+document+'"', <br>
|
1240 |
'Résume le texte suivant : "'+document+'"', <br>
|
|
|
1265 |
'"'+document+' Rédige un résumé du texte ci-dessus : ', <br>
|
1266 |
'"'+document+' Rédigez un résumé du texte ci-dessus : '
|
1267 |
</code>
|
|
|
1268 |
|
1269 |
An example:
|
1270 |
| inputs | targets |
|
|
|
1290 |
See the DOI at the end of this dataset card.
|
1291 |
#### License
|
1292 |
The `orange_sum_fr_prompt_summary` dataset has the same license as the original dataset from which it is derived.
|
1293 |
+
</details>
|
1294 |
+
|
1295 |
|
1296 |
+
<details>
|
1297 |
+
<summary><h1>Text generation from a text</h1></summary>
|
1298 |
|
|
|
1299 |
The task consists in using a text base to generate a suite to this text.
|
1300 |
## 24 prompts
|
1301 |
+
|
|
|
1302 |
<code>
|
1303 |
'"'+document+'"\n Continuer le texte sur 1000 caractères maximum :', <br>
|
1304 |
'"'+document+'"\n Continue le texte sur 1000 caractères maximum :', <br>
|
|
|
1325 |
'"'+document+'"\nGénère la suite du texte : ', <br>
|
1326 |
'"'+document+'"\n Générez la suite du texte : ',
|
1327 |
</code>
|
|
|
1328 |
|
1329 |
An example:
|
1330 |
| inputs | targets |
|
1331 |
| -------- | ------- |
|
1332 |
| "Après une septième édition impressionnante, Danse avec les stars a confirmé son statut de programme incontournable dans le paysage audiovisuel français actuel. Avec des chorégraphies millimétrées, une production classieuse, des candidats survoltés et un jury de professionnels passionné, TF1 offre chaque semaine aux fidèles de l'émission une représentation exceptionnelle. Mais si la prochaine année du concours était celle du changement ? En effet, il se pourrait bien qu'un pilier du show ne rempile pas pour la saison 8...Un membre incontournableEt ce n'est autre que l'une des juges qui vient d'émettre des réserves pour noter les futures célébrités qui fouleront le dance-floor de DALS ! Marie-Claude Pietragalla a en effet révélé que son retour était probablement compromis, ce qui ne manque pas de décevoir ses fans. Bien qu'elle ne soit pas un élément historique de cette immense locomotive, elle répond néanmoins présente à l'appel depuis 2012, gratifiant les participants de ses conseils p" Continuer le texte sur 1000 caractères maximum : | ointus et ses avis sensibles. Mais hélas, cette fois-ci, la danseuse contemporaine pourrait ne pas être en mesure de se libérer...Un planning trop chargéInterviewée par le journal Var Matin, dans le cadre de la promotion de son spectacle "Je t'ai rencontré par hasard" et pour évoquer ses ambitions, Pietra pour les intimes a expliqué avec sincérité : "Ecoutez, là je ne sais pas si je vais continuer parce que j'ai beaucoup de projets pour l'année prochaine." Ainsi, du fait d'un calendrier déjà très chargé, elle ne pourrait donc pas effectuer son come-back au côté de ses pétillants acolytes Fauve Hautot, Chris Marques et Jean-Marc Généreux... s'ils resignent. Seriez-vous triste de ce départ ou pensez-vous, au contraire, qu'un changement du jury (à l'instar de The Voice) permettrait à Danse avec les stars de se renouveler ? |
|
1333 |
|
|
|
1334 |
## Datasets
|
1335 |
### orange_sum
|
1336 |
Note: we use the split `abstract`
|
|
|
1345 |
See the DOI at the end of this dataset card.
|
1346 |
#### License
|
1347 |
The `orange_sum_fr_prompt_text_generation` dataset has the same license as the original dataset from which it is derived.
|
1348 |
+
</details>
|
1349 |
|
1350 |
+
<details>
|
1351 |
+
<summary>Title generation (from an article)</summary>
|
1352 |
|
|
|
|
|
1353 |
The aim is to generate a title for a given text.
|
1354 |
## 19 prompts
|
1355 |
+
|
|
|
1356 |
<code>
|
1357 |
'"'+document+'"\n Générer un titre pour cet article :', <br>
|
1358 |
'"'+document+'"\n Génère un titre pour cet article :', <br>
|
|
|
1374 |
"Ecrivez un titre pour l'article suivant : "+document,
|
1375 |
'"'+document+'"\n Titre :\n '
|
1376 |
</code>
|
|
|
1377 |
|
1378 |
An example:
|
1379 |
| inputs | targets |
|
|
|
1394 |
See the DOI at the end of this dataset card.
|
1395 |
#### License
|
1396 |
The `orange_sum_fr_prompt_title_generation` dataset has the same license as the original dataset from which it is derived.
|
1397 |
+
</details>
|
1398 |
|
1399 |
|
1400 |
+
<details>
|
1401 |
+
<summary><h1>Fill mask</h1></summary>
|
1402 |
|
|
|
1403 |
Masked language modeling is the task of masking some of the words in a sentence and predicting which words should replace those masks.
|
1404 |
In our case, for a given text, we have hidden one word per sentence of the text.
|
1405 |
## 24 prompts
|
1406 |
+
|
|
|
1407 |
<code>
|
1408 |
'Remplacer le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text,<br>
|
1409 |
'Remplace le <mask> dans le texte suivant par le mot le plus vraisemblable : '+text, <br>
|
|
|
1430 |
'Transforme le <mask> dans le texte suivant par le mot le plus probable : '+text, <br>
|
1431 |
'Transformez le <mask> dans le texte suivant par le mot le plus probable : '+text,
|
1432 |
</code>
|
1433 |
+
|
|
|
1434 |
An example:
|
1435 |
| inputs | targets |
|
1436 |
| -------- | ------- |
|
|
|
1450 |
See the DOI at the end of this dataset card.
|
1451 |
#### License
|
1452 |
The `orange_sum_fr_prompt_fill_mask` dataset has the same license as the original dataset from which it is derived.
|
1453 |
+
</details>
|
1454 |
|
1455 |
|
1456 |
+
<details>
|
1457 |
+
<summary><h1>Binary text generation from a title</h1></summary>
|
1458 |
|
|
|
1459 |
The aim is to generate a text positive ou negative depending on the prompt selected by the user.
|
1460 |
## 36 prompts
|
1461 |
+
|
|
|
1462 |
<code>
|
1463 |
# negative
|
1464 |
'Rédiger un commentaire négatif dont le titre est : "'+title+'"".', <br>
|
|
|
1535 |
'Titre : "'+title +'"\n Ecris une évaluation positive de 1 à 5 phrases sur le titre précédent : ',<br>
|
1536 |
'Titre : "'+title +'"\n Ecrivez une évaluation positive de 1 à 5 phrases sur le titre précédent : ',
|
1537 |
</code>
|
|
|
1538 |
|
1539 |
An example:
|
1540 |
| inputs | targets |
|
1541 |
| -------- | ------- |
|
1542 |
| Rédiger un commentaire négatif dont le titre est : "A éviter!"".| Cet engin ne sert à rien les sons sont pourris les songs sont simplistes vous n'apprendrez jamais à jouer de la batterie avec une bouze pareille. En fait c'est juste un jouet destiné aux enfants et rien d'autre. Si vous voulez vraiment quelque chose de bien et d'utile passez votre chemin et gardez votre fric moi j'ai voulu essayer et j'ai été très mais alors très déçu. Résultat direction poubelle.|
|
1543 |
|
|
|
1544 |
## Datasets
|
1545 |
### Abirate/french_book_reviews
|
1546 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
|
|
1569 |
See the DOI at the end of this dataset card.
|
1570 |
#### License
|
1571 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_base_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
1572 |
+
</details>
|
1573 |
|
1574 |
|
1575 |
|
1576 |
+
<details>
|
1577 |
+
<summary><h1>Text generation from a title</h1></summary>
|
1578 |
+
|
1579 |
The aim is to generate a text from a title of a review text type.
|
1580 |
|
1581 |
## 36 prompts
|
1582 |
+
|
|
|
1583 |
<code>
|
1584 |
'Rédiger un commentaire dont le titre est : "'+title+'"',<br>
|
1585 |
'Rédige un commentaire dont le titre est : "'+title+'"',<br>
|
|
|
1618 |
'Titre : "'+title +'"\nEcris une évaluation de 1 à 5 phrases sur le titre précédent : ',<br>
|
1619 |
'Titre : "'+title +'"\nEcrivez une évaluation de 1 à 5 phrases sur le titre précédent : ',
|
1620 |
</code>
|
|
|
1621 |
|
1622 |
An example:
|
1623 |
| inputs | targets |
|
|
|
1637 |
See the DOI at the end of this dataset card.
|
1638 |
#### License
|
1639 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_text_generation_from_title_base_topic_classification` dataset has the same license as the original dataset from which it is derived.
|
1640 |
+
</details>
|
1641 |
|
1642 |
|
1643 |
+
<details>
|
1644 |
+
<summary>Text generation from a title</summary>
|
1645 |
|
|
|
1646 |
Text generation from a title.
|
1647 |
## 27 prompts
|
1648 |
+
|
|
|
1649 |
<code>
|
1650 |
'Rédiger un texte dont le titre est : "'+title+'".', <br>
|
1651 |
'Rédige un texte dont le titre est : "'+title+'".',<br>
|
|
|
1675 |
'"'+title +'"\n Ecris un document de 1 à 5 phrases sur le titre précédent : ',<br>
|
1676 |
'"'+title +'"\n Ecrivez un document de 1 à 5 phrases sur le titre précédent : '
|
1677 |
</code>
|
|
|
1678 |
|
1679 |
An example:
|
1680 |
| inputs | targets |
|
1681 |
| -------- | ------- |
|
1682 |
| Rédiger un texte dont le titre est : "The Voice : un candidat malvoyant enflamme le jury". | Samedi soir sur TF1 débutait la saison 6 de The Voice. Et dès le premier prime un candidat est sorti du lot : Vincent, 20 ans, presque aveugle et un talent fou au piano et au chant. Le jeune homme a rendu dingue le jury et le public avec son interprétation du tube d'Eminem, "Lose Yourself". Matt Pokora, Mika, Florent Pagny et Zazie, les quatre coachs conquis par sa prestation, l'ont rejoint sur scène. Vincent Vinel fera finalement partie de l'équipe de Mika. Celui-ci s'en est félicité : "C'était une belle expérience et un beau moment. Je suis très honoré de t'avoir dans mon équipe", a ainsi indiqué le chanteur. |
|
1683 |
|
|
|
1684 |
## Datasets
|
1685 |
## Datasets
|
1686 |
### orange_sum
|
|
|
1696 |
See the DOI at the end of this dataset card.
|
1697 |
#### License
|
1698 |
The `orange_sum_fr_prompt_text_generation_from_title` dataset has the same license as the original dataset from which it is derived.
|
1699 |
+
</details>
|
1700 |
|
1701 |
|
1702 |
+
<details>
|
1703 |
+
<summary>Title generation (from reviews)</summary>
|
1704 |
|
|
|
1705 |
The aim is to generate a title for a given text which is a review.
|
1706 |
## 18 prompts
|
1707 |
+
|
|
|
1708 |
<code>
|
1709 |
review+'\n Générer un titre pour cet avis : ', <br>
|
1710 |
review+'\n Génère un titre pour cet avis : ', <br>
|
|
|
1726 |
"""Ecrivez un titre pour l'avis suivant : """+review,
|
1727 |
review+'\n Titre :\n '
|
1728 |
</code>
|
|
|
1729 |
|
1730 |
An example:
|
1731 |
| inputs | targets |
|
|
|
1745 |
See the DOI at the end of this dataset card.
|
1746 |
#### License
|
1747 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_sentiment_analysis` dataset has the same license as the original dataset from which it is derived.
|
1748 |
+
</details>
|
1749 |
|
1750 |
|
1751 |
+
<details>
|
1752 |
+
<summary><h1>Classes classfication</h1></summary>
|
1753 |
|
|
|
1754 |
Task of assigning a label/class to a given text.
|
1755 |
## 21 prompts
|
1756 |
+
|
|
|
1757 |
<code>
|
1758 |
'Le texte suivant parle-t-il de "'+classes+'" ?\n Texte : '+text,<br>
|
1759 |
'Le texte suivant concerne-t-il "'+classes+'" ?\n Texte : '+text,<br>
|
|
|
1777 |
'Sélectionner une classe pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
|
1778 |
'Sélectionner une classe pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
|
1779 |
</code>
|
|
|
1780 |
|
1781 |
An example:
|
1782 |
| inputs | targets |
|
|
|
1797 |
See the DOI at the end of this dataset card.
|
1798 |
#### License
|
1799 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_classes_classification` dataset has the same license as the original dataset from which it is derived.
|
1800 |
+
</details>
|
1801 |
|
1802 |
|
1803 |
+
<details>
|
1804 |
+
<summary><h1>Stars classfication</h1></summary>
|
1805 |
|
|
|
|
|
1806 |
Task consisting in assigning a score between 1 and 5 to a review text.
|
1807 |
## 22 prompts
|
1808 |
+
|
|
|
1809 |
<code>
|
1810 |
"""Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
|
1811 |
"""Donne un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : """+review,<br>
|
|
|
1830 |
'Texte : '+review+'\n Note (entre 1 et 5) :',<br>
|
1831 |
'Commentaire : '+review+'\n Sur une échelle de 1 à 5, je donnerais une note de :'
|
1832 |
</code>
|
|
|
1833 |
|
1834 |
An example:
|
1835 |
| inputs | targets |
|
1836 |
| -------- | ------- |
|
1837 |
| Donner un nombre d'étoiles à l'avis ci-dessous (1 étant le plus bas et 5 le plus haut) : A déconseiller - Article n'a fonctionné qu'une fois - Je ne recommande pas du tout ce produit - Je l'ai jeté ...| 1 |
|
1838 |
|
|
|
1839 |
## Datasets
|
1840 |
### Abirate/french_book_reviews
|
1841 |
**Original**: https://huggingface.co/datasets/Abirate/french_book_reviews
|
|
|
1864 |
See the DOI at the end of this dataset card.
|
1865 |
#### License
|
1866 |
The `https://huggingface.co/datasets/CATIE-AQ/amazon_reviews_multi_fr_prompt_stars_classification` dataset has the same license as the original dataset from which it is derived.
|
1867 |
+
</details>
|
1868 |
|
1869 |
|
1870 |
+
<details>
|
1871 |
+
<summary><h1>Intent classfication</h1></summary>
|
1872 |
|
|
|
1873 |
Task consisting in assigning an intent to a text.
|
1874 |
## 30 prompts
|
1875 |
+
|
|
|
1876 |
<code>
|
1877 |
text+'\n Étant donné la liste de catégories suivante : "'+classes+'" à quelle catégorie appartient le texte ?',<br>
|
1878 |
text+'\n Étant donné la liste de classes suivante : "'+classes+'" à quelle classe appartient le texte ?',<br>
|
|
|
1905 |
'Sélectionner une intention pour le texte suivant. Les possibilités sont les suivantes : "'+classes+'"\n Texte : '+text,<br>
|
1906 |
'Sélectionner une intention pour le texte suivant. Les choix sont les suivants : "'+classes+'"\n Texte : '+text
|
1907 |
</code>
|
|
|
1908 |
|
1909 |
An example:
|
1910 |
| inputs | targets |
|
|
|
1951 |
See the DOI at the end of this dataset card.
|
1952 |
#### License
|
1953 |
The `https://huggingface.co/datasets/CATIE-AQ/mtop_domain_intent_fr_prompt_intent_classification` dataset has the same license as the original dataset from which it is derived.
|
1954 |
+
</details>
|
1955 |
|
1956 |
|
1957 |
# NER
|