REILX commited on
Commit
c60531a
1 Parent(s): c409ee4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +96 -96
README.md CHANGED
@@ -1,96 +1,96 @@
1
- ### 数据集
2
-
3
- 以 m-a-p/neo_sft_phase2 数据集为基石,精心构建了三个子数据集,分别如下:
4
-
5
- 1. REILX/neo_sft_phase2_conversations
6
- 2. REILX/neo_sft_phase2_multi
7
- 3. REILX/neo_sft_phase2_single
8
-
9
- ### 数据集构建规则
10
-
11
- **REILX/neo_sft_phase2_conversations**
12
-
13
- * **方法:** 将每轮对话视作独立的问答对,并巧妙融入上下文信息构建样本。
14
- * **具体步骤:**
15
- 1. 针对每个“conversation”,逐一遍历其对话轮次。
16
- 2. 将当前“human”轮次的“value”与之前所有轮次的对话内容熔炼一体,构成完整的“instruction”。
17
- 3. 将当前“gpt”轮次的“value”作为最终的“output”。
18
- 4. “input”可为空白,亦可注入适当的提示信息。
19
-
20
- **REILX/neo_sft_phase2_multi**
21
-
22
- * **方法:** 将每轮对话视作独立的问答对,并巧妙利用上下文信息构建样本。
23
- * **具体步骤:**
24
- 1. 针对每个“conversation”,逐一遍历其对话轮次。
25
- 2. 将每个“conversation”中所有“human”的“value”汇聚一堂,构成完整的“instruction”。
26
- 3. 将每个“conversation”中所有“gpt”的“value”汇聚一堂,构成最终的“output”。
27
- 4. “input”可为空白,亦可注入适当的提示信息。
28
-
29
- **REILX/neo_sft_phase2_single**
30
-
31
- * **具体步骤:**
32
- 1. 针对每个“conversation”,逐一遍历其对话轮次。
33
- 2. 仅保留包含一轮对话的“conversation”,舍弃多轮对话数据。
34
- 3. 将该“conversation”的“human”的“value”作为“instruction”。
35
- 4. 将该“conversation”的“gpt”的“value”作为“output”。
36
- 5. “input”可为空白,亦可注入适当的提示信息。
37
-
38
-
39
- ### 训练参数
40
- REILX/neo_sft_phase2_conversations</br>
41
- - learning_rate: 5e-06
42
- - train_batch_size: 1
43
- - eval_batch_size: 8
44
- - seed: 42
45
- - distributed_type: multi-GPU
46
- - num_devices: 8
47
- - gradient_accumulation_steps: 8
48
- - total_train_batch_size: 64
49
- - total_eval_batch_size: 64
50
- - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
51
- - lr_scheduler_type: cosine
52
- - lr_scheduler_warmup_ratio: 0.1
53
- - num_epochs: 5.0
54
-
55
- REILX/neo_sft_phase2_multi</br>
56
- - learning_rate: 5e-05
57
- - train_batch_size: 1
58
- - eval_batch_size: 8
59
- - seed: 42
60
- - distributed_type: multi-GPU
61
- - num_devices: 8
62
- - gradient_accumulation_steps: 8
63
- - total_train_batch_size: 64
64
- - total_eval_batch_size: 64
65
- - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
66
- - lr_scheduler_type: cosine
67
- - lr_scheduler_warmup_ratio: 0.1
68
- - num_epochs: 5.0
69
-
70
- REILX/neo_sft_phase2_single</br>
71
- - learning_rate: 5e-05
72
- - train_batch_size: 1
73
- - eval_batch_size: 8
74
- - seed: 42
75
- - distributed_type: multi-GPU
76
- - num_devices: 8
77
- - gradient_accumulation_steps: 8
78
- - total_train_batch_size: 64
79
- - total_eval_batch_size: 64
80
- - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
81
- - lr_scheduler_type: cosine
82
- - lr_scheduler_warmup_ratio: 0.1
83
- - num_epochs: 5.0
84
-
85
- ### 损失图
86
- REILX/neo_sft_phase2_conversations</br>
87
- <!-- ![neo_sft_phase2_conversations_loss](./neo_sft_phase2_conversations/training_loss.png) -->
88
- <img src="./neo_sft_phase2_conversations/training_loss.png" alt="neo_sft_phase2_conversations_loss" width="30%">
89
-
90
- REILX/neo_sft_phase2_multi</br>
91
- <!-- ![neo_sft_phase2_multi_loss](./neo_sft_phase2_multi/training_loss.png) -->
92
- <img src="./neo_sft_phase2_multi/training_loss.png" alt="neo_sft_phase2_multi_loss" width="30%">
93
-
94
- REILX/neo_sft_phase2_single</br>
95
- <!-- ![neo_sft_phase2_single_loss](./neo_sft_phase2_single/training_loss.png) -->
96
- <img src="./neo_sft_phase2_single/training_loss.png" alt="neo_sft_phase2_single_loss" width="30%">
 
1
+ ### 数据集
2
+
3
+ 以 m-a-p/neo_sft_phase2 数据集为基石,精心构建了三个子数据集,分别如下:
4
+
5
+ 1. REILX/neo_sft_phase2_conversations
6
+ 2. REILX/neo_sft_phase2_multi
7
+ 3. REILX/neo_sft_phase2_single
8
+
9
+ ### 数据集构建规则
10
+
11
+ **REILX/neo_sft_phase2_conversations**
12
+
13
+ * **方法:** 将每轮对话视作独立的问答对,并巧妙融入上下文信息构建样本。
14
+ * **具体步骤:**
15
+ 1. 针对每个“conversation”,逐一遍历其对话轮次。
16
+ 2. 将当前“human”轮次的“value”与之前所有轮次的对话内容熔炼一体,构成完整的“instruction”。
17
+ 3. 将当前“gpt”轮次的“value”作为最终的“output”。
18
+ 4. “input”可为空白,亦可注入适当的提示信息。
19
+
20
+ **REILX/neo_sft_phase2_multi**
21
+
22
+ * **方法:** 将每轮对话视作独立的问答对,并巧妙利用上下文信息构建样本。
23
+ * **具体步骤:**
24
+ 1. 针对每个“conversation”,逐一遍历其对话轮次。
25
+ 2. 将每个“conversation”中所有“human”的“value”汇聚一堂,构成完整的“instruction”。
26
+ 3. 将每个“conversation”中所有“gpt”的“value”汇聚一堂,构成最终的“output”。
27
+ 4. “input”可为��白,亦可注入适当的提示信息。
28
+
29
+ **REILX/neo_sft_phase2_single**
30
+
31
+ * **具体步骤:**
32
+ 1. 针对每个“conversation”,逐一遍历其对话轮次。
33
+ 2. 仅保留包含一轮对话的“conversation”,舍弃多轮对话数据。
34
+ 3. 将该“conversation”的“human”的“value”作为“instruction”。
35
+ 4. 将该“conversation”的“gpt”的“value”作为“output”。
36
+ 5. “input”可为空白,亦可注入适当的提示信息。
37
+
38
+
39
+ ### 训练参数
40
+ REILX/neo_sft_phase2_conversations</br>
41
+ - learning_rate: 5e-06
42
+ - train_batch_size: 1
43
+ - eval_batch_size: 8
44
+ - seed: 42
45
+ - distributed_type: multi-GPU
46
+ - num_devices: 8
47
+ - gradient_accumulation_steps: 8
48
+ - total_train_batch_size: 64
49
+ - total_eval_batch_size: 64
50
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
51
+ - lr_scheduler_type: cosine
52
+ - lr_scheduler_warmup_ratio: 0.1
53
+ - num_epochs: 5.0
54
+
55
+ REILX/neo_sft_phase2_multi</br>
56
+ - learning_rate: 5e-05
57
+ - train_batch_size: 1
58
+ - eval_batch_size: 8
59
+ - seed: 42
60
+ - distributed_type: multi-GPU
61
+ - num_devices: 8
62
+ - gradient_accumulation_steps: 8
63
+ - total_train_batch_size: 64
64
+ - total_eval_batch_size: 64
65
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
66
+ - lr_scheduler_type: cosine
67
+ - lr_scheduler_warmup_ratio: 0.1
68
+ - num_epochs: 5.0
69
+
70
+ REILX/neo_sft_phase2_single</br>
71
+ - learning_rate: 5e-05
72
+ - train_batch_size: 1
73
+ - eval_batch_size: 8
74
+ - seed: 42
75
+ - distributed_type: multi-GPU
76
+ - num_devices: 8
77
+ - gradient_accumulation_steps: 8
78
+ - total_train_batch_size: 64
79
+ - total_eval_batch_size: 64
80
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
81
+ - lr_scheduler_type: cosine
82
+ - lr_scheduler_warmup_ratio: 0.1
83
+ - num_epochs: 5.0
84
+
85
+ ### 损失图
86
+ REILX/neo_sft_phase2_conversations</br>
87
+ <!-- ![neo_sft_phase2_conversations_loss](./neo_sft_phase2_conversations/training_loss.png) -->
88
+ <img src="./neo_sft_phase2_conversations/training_loss.png" alt="neo_sft_phase2_conversations_loss" width="60%">
89
+
90
+ REILX/neo_sft_phase2_multi</br>
91
+ <!-- ![neo_sft_phase2_multi_loss](./neo_sft_phase2_multi/training_loss.png) -->
92
+ <img src="./neo_sft_phase2_multi/training_loss.png" alt="neo_sft_phase2_multi_loss" width="60%">
93
+
94
+ REILX/neo_sft_phase2_single</br>
95
+ <!-- ![neo_sft_phase2_single_loss](./neo_sft_phase2_single/training_loss.png) -->
96
+ <img src="./neo_sft_phase2_single/training_loss.png" alt="neo_sft_phase2_single_loss" width="60%">