Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,116 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Firefly中文Llama2增量预训练数据
|
2 |
+
|
3 |
+
<img src="pics/firefly_logo.png" width="250">
|
4 |
+
|
5 |
+
欢迎加入Firefly大模型技术交流群,关注我们的公众号。
|
6 |
+
|
7 |
+
<img src="pics/gongzhonghao.png" width="300">
|
8 |
+
|
9 |
+
## 数据简介
|
10 |
+
技术文章:[QLoRA增量预训练与指令微调,及汉化Llama2的实践](https://mp.weixin.qq.com/s/26-Qxma9M2wGoTQgOlKRmQ)
|
11 |
+
|
12 |
+
该数据应为[Firefly-LLaMA2-Chinese项目](https://github.com/yangjianxin1/Firefly-LLaMA2-Chinese)的增量预训练数据,一共约22GB文本,主要包含CLUE、ThucNews、CNews、COIG、维基百科等开源数据集,以及我们收集的古诗词、散文、文言文等,数据分布如下图。
|
13 |
+
|
14 |
+
<img src="pics/pretrain-data.png" width="450">
|
15 |
+
|
16 |
+
|
17 |
+
## 模型列表 & 数据列表
|
18 |
+
我们开源了7B和13B的Base与Chat模型。Base模型是基于LLaMA2扩充中文词表后增量预训练得到的模型,Chat模型是在Base模型的基础上进行多轮对话指令微调。
|
19 |
+
|
20 |
+
为了探究基座模型对指令微调的影响,我们也微调了baichuan2-base模型,获得firefly-baichuan2-13b,具有不错的效果。更多中文微调,可查看[Firefly项目](https://github.com/yangjianxin1/Firefly)。
|
21 |
+
|
22 |
+
| 模型 | 类型 | 训练任务 | 训练长度 |
|
23 |
+
|-----------------------------------------------------------------------------------------------|------|--------|------|
|
24 |
+
| 🤗[Firefly-LLaMA2-7B-Base](https://huggingface.co/YeungNLP/firefly-llama2-7b-base) | 基座模型 | CLM | 1024 |
|
25 |
+
| 🤗[Firefly-LLaMA2-13B-Base](https://huggingface.co/YeungNLP/firefly-llama2-13b-base) | 基座模型 | CLM | 1024 |
|
26 |
+
| 🤗[Firefly-LLaMA2-7B-Chat](https://huggingface.co/YeungNLP/firefly-llama2-7b-chat) | 指令模型 | 多轮指令微调 | 1024 |
|
27 |
+
| 🤗[Firefly-LLaMA2-13B-Chat](https://huggingface.co/YeungNLP/firefly-llama2-13b-chat) | 指令模型 | 多轮指令微调 | 1024 |
|
28 |
+
| 🤗[Firefly-Baichuan2-13B](https://huggingface.co/YeungNLP/firefly-baichuan2-13b) | 指令模型 | 多轮指令微调 | 1024 |
|
29 |
+
| 🤗[Firefly-LLaMA2-7B-Chat-QLoRA](https://huggingface.co/YeungNLP/firefly-llama2-7b-chat-qlora) | 指令模型 | 多轮指令微调 | 1024 |
|
30 |
+
| 🤗[Firefly-LLaMA2-13B-Chat-QLoRA](https://huggingface.co/YeungNLP/firefly-llama2-13b-chat-qlora) | 指令模型 | 多轮指令微调 | 1024 |
|
31 |
+
|
32 |
+
|
33 |
+
## 模型评测
|
34 |
+
我们在CMMLU和Open LLM Leaderboard上分别对模型的中文和英文能力进行了客观评测,并且在我们构建的人工评测集上进行了人工评测。
|
35 |
+
**Open LLM Leaderboard和CMMLU榜单倾向于评测大模型的做题能力,不够全面,所以我们进一步进行了人工评测。**
|
36 |
+
|
37 |
+
### Open LLM Leaderboard
|
38 |
+
|
39 |
+
| 模型 | Average | ARC | HellaSwag | MMLU | TruthfulQA |
|
40 |
+
|-----------------------------|-----------|-------|-----------|-------|------------|
|
41 |
+
| chinese-alpaca-2-13b | 60.94 | 58.7 | 79.74 | 55.1 | 50.22 |
|
42 |
+
| openbuddy-llama2-13b-v8.1 | 60.47 | 55.97 | 79.79 | 54.95 | 51.16 |
|
43 |
+
| flagalpha-llama2-13b-chat | 60.41 | 55.97 | 82.05 | 54.74 | 48.9 |
|
44 |
+
| llama-2-13b-chat | 59.93 | 59.04 | 81.94 | 54.64 | 44.12 |
|
45 |
+
| vicuna-13b-v1.1 | 59.22 | 52.73 | 80.13 | 51.94 | 52.08 |
|
46 |
+
| guanaco-13b | 59.18 | 57.85 | 83.84 | 48.28 | 46.73 |
|
47 |
+
| **firefly-llama2-13b-chat** | **59.05** | 57.51 | 77.94 | 52.56 | 48.18 |
|
48 |
+
| llama-2-7b-chat | 56.34 | 52.9 | 78.55 | 48.32 | 45.57 |
|
49 |
+
| flagalpha-llama2-7b-chat | 56.13 | 52.39 | 77.52 | 47.72 | 46.87 |
|
50 |
+
| yayi-7b-llama2 | 54.45 | 55.03 | 77.84 | 40.92 | 44.02 |
|
51 |
+
| chinese-alpaca-2-7b | 54.33 | 49.57 | 72.62 | 46.5 | 48.63 |
|
52 |
+
| **firefly-llama2-7b-chat** | **54.19** | 51.19 | 73.32 | 45.47 | 46.78 |
|
53 |
+
| yayi-13b-llama2 | 51.06 | 48.55 | 74.82 | 38.68 | 42.19 |
|
54 |
+
| linly-llama2-7b | 49.06 | 48.04 | 73.25 | 35.04 | 39.92 |
|
55 |
+
| linly-llama2-13b | 38.22 | 33.62 | 39.59 | 33.97 | 45.71 |
|
56 |
+
| ziya-llama-13b* | - | - | 76.9 | 50.3 | - |
|
57 |
+
|
58 |
+
*表示分数来源于OpenCompass官方,而非Open LLM Leaderboard官方数据
|
59 |
+
|
60 |
+
Conclusion:我们的模型保留了llama2模型优秀的英文能力,在Open LLM Leaderboard上,与llama2-chat、vicuna-v1.1、guanaco等模型的表现及其接近。
|
61 |
+
|
62 |
+
|
63 |
+
|
64 |
+
### CMMLU榜单
|
65 |
+
|
66 |
+
| 模型 | CMMLU | 训练细节 |
|
67 |
+
|-----------------------------|-----------|------------------------|
|
68 |
+
| **firefly-baichuan2-13b** | **56.83** | 4\*V100,QLoRA,指令微调 |
|
69 |
+
| chinese-alpaca-2-13b | 45.17 | 48\*A40,LoRA,词表扩充 + 增量预训练 + 指令微调 |
|
70 |
+
| openbuddy-llama2-13b-v8.1 | 41.66 | 全量参数训练,词表扩充 + 指令微调 |
|
71 |
+
| chinese-alpaca-2-7b | 40.86 | 48\*A40,LoRA,词表扩充 + 增量预训练 + 指令微调 |
|
72 |
+
| ziya-llama-13b* | 39.9 | 160\*A100,全量参数训练,词表扩充 + 增量预训练 + 指令微调 + RLHF |
|
73 |
+
| chinese-alpaca-plus-13b* | 39.9 | 48\*A40,LoRA,词表扩充 + 增量预训练 + 指令微调 |
|
74 |
+
| **firefly-llama2-13b-chat** | **39.47** | 4\*V100,QLoRA,词表扩充 + 增量预训练 + 指令微调 |
|
75 |
+
| flagalpha-llama2-13b-chat | 39.20 | LoRA,指令微调 |
|
76 |
+
| llama-2-13b-chat | 38.65 | 全量参数训练,预训练 + 指令微调 + RLHF(全流程为英文) |
|
77 |
+
| **firefly-llama2-7b-chat** | **34.03** | 4\*V100,QLoRA,词表扩充 + 增量预训练 + 指令微调 |
|
78 |
+
| llama-2-7b-chat | 33.76 | 全量参数训练,预训练 + 指令微调 + RLHF(全流程为英文) |
|
79 |
+
| flagalpha-llama2-7b-chat | 32.61 | LoRA,指令微调 |
|
80 |
+
| chinese-alpaca-plus-7b* | 32.6 | 48\*A40,LoRA,词表扩充 + 增量预训练 + 指令微调 |
|
81 |
+
| yayi-13b-llama2 | 30.73 | 指令微调 |
|
82 |
+
| yayi-7b-llama2 | 30.47 | 指令微调 |
|
83 |
+
| linly-llama2-7b | 28.68 | 32\*A100,全量参数训练,词表扩充 + 混合训练 |
|
84 |
+
| linly-llama2-13b | 26.32 | 32\*A100,全量参数训练,词表扩充 + 混合训练 |
|
85 |
+
|
86 |
+
我们统一采用OpenCompass工具来离线评测CMMLU,其中*表示结果来源于OpenCompass官方榜单或者由模型作者自测的分数。
|
87 |
+
|
88 |
+
Conclusions:
|
89 |
+
- 与llama-2-chat相比,我们的模型在中文方面的能力具有一定的提升。
|
90 |
+
- 对于中文词表扩充模型而言,我们的模型大幅领先全量训练的linly,与全量训练的ziya、chinese-alpaca-1及其接近。
|
91 |
+
- firefly-baichuan2-13b一骑绝尘,并且在OpenCompass的CMMLU榜单,该分数可排第8,小幅落后于百川官方模型,进一步验证了基座模型的重要性。
|
92 |
+
- 我们的模型在CMMLU上的指标与chinese-alpaca-2也存在一定的差距。这一现象很大程度与增量预训练数据量和数据分布相关,我们的增量预训练数据仅为22GB(未充分使用,详情见训练细节),增量预训练不够充分,且大部分为新闻语料,对于CMMLU能力的提升有限。
|
93 |
+
|
94 |
+
### 人工评测
|
95 |
+
|
96 |
+
我们构建了评测集,其中包含13种评测任务,评测数据详见data/firefly-eval.xlsx。大部分数据从[Belle数据](https://huggingface.co/datasets/BELLE-2/train_3.5M_CN_With_Category)中进行采样和优化。
|
97 |
+
每种任务包含10条数据,一共130条数据。13种任务包含:头脑风暴、分类、Close QA、代码生成、
|
98 |
+
信息抽取、开放式生成、有害性检验、数学题、阅读理解、Open QA、Rewrite、Summarization、翻译。
|
99 |
+
|
100 |
+
评测标准如下:
|
101 |
+
- 对于同一道题目,对两两模型的生成结果进行比较,存在胜负平三种关系。
|
102 |
+
- 对于客观题,如果两个模型均回答正确,或均回答错误,则为平局。
|
103 |
+
- 对于主观题,回答更加详细、真实、细节更丰富,则为获胜。当两者内容正确,并且详细程度非常接近时,或者各有千秋时,可视为平局。
|
104 |
+
- 对于中文题目,如果目标回复为中文,但模型却回复英文,则判为错误。
|
105 |
+
|
106 |
+
详细的评测结果可参考:[人工评测结果](https://docs.qq.com/sheet/DU1h1bE1xWG50ZVlI?tab=BB08J2)。在评测中,我们遵守设定的评测标准,但依旧难以完全避免主观因素的影响,
|
107 |
+
本着公开透明的原则,我们公开了评测细节,大家可比较模型效果。
|
108 |
+
|
109 |
+
|
110 |
+
同为基于LLaMA2进行汉化的模型,我们对Firefly-LLaMA2-13B-Chat和Linly-LLaMA2-13B进行了人工测评,从评测结果来看,我们的模型存在非常大的优势。
|
111 |
+
并且我们与Llama2-Chat-13B也进行了人工评测,也存在非常大的优势。
|
112 |
+
|
113 |
+
| 模型 | 获胜 | 平局 | 失败 |
|
114 |
+
|---------------------------------------------|------|------------|----------|
|
115 |
+
| Firefly-LLaMA2-13B-Chat VS Linly-LLaMA2-13B | **43(33.08%)** | 79(60.77%) | 8(6.15%) |
|
116 |
+
| Firefly-LLaMA2-13B-Chat VS Llama2-Chat-13B | **86(66.15%)** | 40(30.77%) | 4(3.08%) |
|