commit files to HF hub
Browse files
README.md
CHANGED
@@ -7,19 +7,17 @@ metrics:
|
|
7 |
- rouge-l
|
8 |
- bertscore
|
9 |
- moverscore
|
10 |
-
language:
|
11 |
datasets:
|
12 |
- lmqg/qg_zhquad
|
13 |
pipeline_tag: text2text-generation
|
14 |
tags:
|
15 |
- question generation
|
16 |
widget:
|
17 |
-
- text: "
|
18 |
example_title: "Question Generation Example 1"
|
19 |
-
- text: "
|
20 |
example_title: "Question Generation Example 2"
|
21 |
-
- text: "Beyonce further expanded her acting career, starring as blues singer Etta James in the 2008 musical biopic, <hl> Cadillac Records <hl> ."
|
22 |
-
example_title: "Question Generation Example 3"
|
23 |
model-index:
|
24 |
- name: lmqg/mt5-small-zhquad-qg
|
25 |
results:
|
@@ -54,7 +52,7 @@ This model is fine-tuned version of [google/mt5-small](https://huggingface.co/go
|
|
54 |
|
55 |
### Overview
|
56 |
- **Language model:** [google/mt5-small](https://huggingface.co/google/mt5-small)
|
57 |
-
- **Language:**
|
58 |
- **Training data:** [lmqg/qg_zhquad](https://huggingface.co/datasets/lmqg/qg_zhquad) (default)
|
59 |
- **Online Demo:** [https://autoqg.net/](https://autoqg.net/)
|
60 |
- **Repository:** [https://github.com/asahi417/lm-question-generation](https://github.com/asahi417/lm-question-generation)
|
@@ -66,10 +64,10 @@ This model is fine-tuned version of [google/mt5-small](https://huggingface.co/go
|
|
66 |
from lmqg import TransformersQG
|
67 |
|
68 |
# initialize model
|
69 |
-
model = TransformersQG(language="
|
70 |
|
71 |
# model prediction
|
72 |
-
questions = model.generate_q(list_context="
|
73 |
|
74 |
```
|
75 |
|
@@ -78,7 +76,7 @@ questions = model.generate_q(list_context="William Turner was an English painter
|
|
78 |
from transformers import pipeline
|
79 |
|
80 |
pipe = pipeline("text2text-generation", "lmqg/mt5-small-zhquad-qg")
|
81 |
-
output = pipe("
|
82 |
|
83 |
```
|
84 |
|
|
|
7 |
- rouge-l
|
8 |
- bertscore
|
9 |
- moverscore
|
10 |
+
language: zh
|
11 |
datasets:
|
12 |
- lmqg/qg_zhquad
|
13 |
pipeline_tag: text2text-generation
|
14 |
tags:
|
15 |
- question generation
|
16 |
widget:
|
17 |
+
- text: "南安普敦的警察服务由汉普郡警察提供。南安普敦行动的主要基地是一座新的八层专用建筑,造价3000万英镑。该建筑位于南路,2011年启用,靠近<hl> 南安普敦中央 <hl>火车站。此前,南安普顿市中心的行动位于市民中心西翼,但由于设施老化,加上计划在旧警察局和地方法院建造一座新博物馆,因此必须搬迁。在Portswood、Banister Park、Hille和Shirley还有其他警察局,在南安普顿中央火车站还有一个英国交通警察局。"
|
18 |
example_title: "Question Generation Example 1"
|
19 |
+
- text: "芝加哥大学的<hl> 1960—61 <hl>集团理论年汇集了Daniel Gorenstein、John G. Thompson和Walter Feit等团体理论家,奠定了一个合作的基础,借助于其他众多数学家的输入,1982中对所有有限的简单群进行了分类。这个项目的规模超过了以往的数学研究,无论是证明的长度还是研究人员的数量。目前正在进行研究,以简化这一分类的证明。如今,群论仍然是一个非常活跃的数学分支,影响着许多其他领域"
|
20 |
example_title: "Question Generation Example 2"
|
|
|
|
|
21 |
model-index:
|
22 |
- name: lmqg/mt5-small-zhquad-qg
|
23 |
results:
|
|
|
52 |
|
53 |
### Overview
|
54 |
- **Language model:** [google/mt5-small](https://huggingface.co/google/mt5-small)
|
55 |
+
- **Language:** zh
|
56 |
- **Training data:** [lmqg/qg_zhquad](https://huggingface.co/datasets/lmqg/qg_zhquad) (default)
|
57 |
- **Online Demo:** [https://autoqg.net/](https://autoqg.net/)
|
58 |
- **Repository:** [https://github.com/asahi417/lm-question-generation](https://github.com/asahi417/lm-question-generation)
|
|
|
64 |
from lmqg import TransformersQG
|
65 |
|
66 |
# initialize model
|
67 |
+
model = TransformersQG(language="zh", model="lmqg/mt5-small-zhquad-qg")
|
68 |
|
69 |
# model prediction
|
70 |
+
questions = model.generate_q(list_context="南安普敦的警察服务由汉普郡警察提供。南安普敦行动的主要基地是一座新的八层专用建筑,造价3000万英镑。该建筑位于南路,2011年启用,靠近南安普敦中央火车站。此前,南安普顿市中心的行动位于市民中心西翼,但由于设施老化,加上计划在旧警察局和地方法院建造一座新博物馆,因此必须搬迁。在Portswood、Banister Park、Hille和Shirley还有其他警察局,在南安普顿中央火车站还有一个英国交通警察局。", list_answer="南安普敦中央")
|
71 |
|
72 |
```
|
73 |
|
|
|
76 |
from transformers import pipeline
|
77 |
|
78 |
pipe = pipeline("text2text-generation", "lmqg/mt5-small-zhquad-qg")
|
79 |
+
output = pipe("南安普敦的警察服务由汉普郡警察提供。南安普敦行动的主要基地是一座新的八层专用建筑,造价3000万英镑。该建筑位于南路,2011年启用,靠近<hl> 南安普敦中央 <hl>火车站。此前,南安普顿市中心的行动位于市民中心西翼,但由于设施老化,加上计划在旧警察局和地方法院建造一座新博物馆,因此必须搬迁。在Portswood、Banister Park、Hille和Shirley还有其他警察局,在南安普顿中央火车站还有一个英国交通警察局。")
|
80 |
|
81 |
```
|
82 |
|