格式更新
Browse files- eat_accelerate_in_30_minites.md +31 -42
eat_accelerate_in_30_minites.md
CHANGED
@@ -1,44 +1,38 @@
|
|
1 |
|
2 |
-
# 30分钟吃掉
|
3 |
|
4 |
|
5 |
-
|
|
|
|
|
6 |
|
7 |
-
|
8 |
|
9 |
-
|
10 |
|
11 |
-
|
12 |
|
13 |
-
在我们的演示范例中,在kaggle的双GPU环境下,双GPU(DDP)模式是单GPU训练速度的1.6倍,加速效果非常明显。
|
14 |
|
|
|
15 |
|
|
|
|
|
16 |
|
17 |
-
|
18 |
-
DP和DDP的区别
|
19 |
-
|
20 |
-
* DP(DataParallel):实现简单但更慢。只能单机多卡使用。GPU分成server节点和worker节点,有负载不均衡。
|
21 |
-
|
22 |
-
* DDP(DistributedDataParallel):更快但实现麻烦。可单机多卡也可多机多卡。各个GPU是平等的,无负载不均衡。
|
23 |
-
|
24 |
-
参考文章:《pytorch中的分布式训练之DP VS DDP》https://zhuanlan.zhihu.com/p/356967195
|
25 |
|
26 |
|
27 |
```python
|
28 |
-
#从git安装最新的accelerate仓库
|
29 |
!pip install git+https://github.com/huggingface/accelerate
|
30 |
```
|
31 |
|
|
|
32 |
|
33 |
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
|
38 |
-
## 一,使用 CPU/单GPU 训练你的pytorch模型
|
39 |
|
40 |
-
|
41 |
-
当系统存在GPU时,accelerate 会自动使用GPU训练你的pytorch模型,否则会使用CPU训练模型。
|
42 |
|
43 |
```python
|
44 |
import os,PIL
|
@@ -162,7 +156,6 @@ def training_loop(epochs = 5,
|
|
162 |
|
163 |
#training_loop(epochs = 5,lr = 1e-3,batch_size= 1024,ckpt_path = "checkpoint.pt",
|
164 |
# mixed_precision="no")
|
165 |
-
|
166 |
```
|
167 |
|
168 |
```python
|
@@ -172,25 +165,23 @@ training_loop(epochs = 5,lr = 1e-4,batch_size= 1024,
|
|
172 |
```
|
173 |
|
174 |
```
|
175 |
-
|
176 |
device cuda is used!
|
177 |
epoch【0】@2023-01-15 12:06:45 --> eval_metric= 95.20%
|
178 |
epoch【1】@2023-01-15 12:07:01 --> eval_metric= 96.79%
|
179 |
epoch【2】@2023-01-15 12:07:17 --> eval_metric= 98.47%
|
180 |
epoch【3】@2023-01-15 12:07:34 --> eval_metric= 98.78%
|
181 |
epoch【4】@2023-01-15 12:07:51 --> eval_metric= 98.87%
|
182 |
-
|
183 |
```
|
184 |
|
185 |
|
186 |
|
187 |
-
##
|
188 |
|
189 |
|
190 |
-
Kaggle中右边settings 中的 ACCELERATOR选择 GPU T4x2。
|
191 |
|
192 |
|
193 |
-
### 1
|
194 |
|
195 |
```python
|
196 |
import os
|
@@ -227,12 +218,12 @@ os._exit(0) # Restart the notebook to reload info from the latest config file
|
|
227 |
|
228 |
```
|
229 |
|
230 |
-
### 2
|
231 |
|
232 |
|
233 |
与之前代码完全一致。
|
234 |
|
235 |
-
如果是脚本方式启动,需要将训练代码写入到脚本文件中,如cv_example.py
|
236 |
|
237 |
```python
|
238 |
%%writefile cv_example.py
|
@@ -360,10 +351,10 @@ training_loop(epochs = 5,lr = 1e-4,batch_size= 1024,ckpt_path = "checkpoint.pt",
|
|
360 |
|
361 |
```
|
362 |
|
363 |
-
### 3
|
364 |
|
365 |
|
366 |
-
**方式1
|
367 |
|
368 |
```python
|
369 |
from accelerate import notebook_launcher
|
@@ -389,8 +380,7 @@ epoch【4】@2023-01-15 12:11:30 --> eval_metric= 98.32%
|
|
389 |
```
|
390 |
|
391 |
|
392 |
-
|
393 |
-
**方式2,accelerate方式执行脚本**
|
394 |
|
395 |
```python
|
396 |
!accelerate launch ./cv_example.py
|
@@ -406,10 +396,10 @@ epoch【4】@2023-02-03 11:38:43 --> eval_metric= 98.38%
|
|
406 |
```
|
407 |
|
408 |
|
409 |
-
**方式3
|
410 |
|
411 |
```python
|
412 |
-
# or traditional
|
413 |
!python -m torch.distributed.launch --nproc_per_node 2 --use_env ./cv_example.py
|
414 |
```
|
415 |
|
@@ -424,13 +414,13 @@ epoch【4】@2023-01-15 12:19:10 --> eval_metric= 98.51%
|
|
424 |
|
425 |
|
426 |
|
427 |
-
##
|
428 |
|
429 |
|
430 |
-
Kaggle中右边
|
431 |
|
432 |
|
433 |
-
### 1
|
434 |
|
435 |
```python
|
436 |
#安装torch_xla支持
|
@@ -449,7 +439,7 @@ Kaggle中右边settings 中的 ACCELERATOR选择 TPU v3-8。
|
|
449 |
import torch_xla
|
450 |
```
|
451 |
|
452 |
-
### 2
|
453 |
|
454 |
|
455 |
和之前代码完全一样。
|
@@ -579,7 +569,7 @@ def training_loop(epochs = 5,
|
|
579 |
|
580 |
```
|
581 |
|
582 |
-
### 3
|
583 |
|
584 |
```python
|
585 |
from accelerate import notebook_launcher
|
@@ -593,5 +583,4 @@ notebook_launcher(training_loop, args, num_processes=8)
|
|
593 |
|
594 |
```
|
595 |
|
596 |
-
作者介绍:吃货本货。算法工程师,擅长数据挖掘和计算机视觉算法。eat pytorch/tensorflow/pyspark 系列
|
597 |
-
|
|
|
1 |
|
2 |
+
# 30 分钟吃掉 Accelerate 模型训练加速工具
|
3 |
|
4 |
|
5 |
+
🤗 Accelerate 是 Hugging Face 开源的一个方便将 PyTorch 模型迁移到 GPU/multi-GPUs/TPU/fp16/bf16 模式下训练的小巧工具。
|
6 |
+
|
7 |
+
和标准的 PyTorch 方法相比,使用 Accelerate 进行多 GPU DDP 模式/TPU/fp16/bf16 训练你的模型变得非常简单,而且训练速度非常快。
|
8 |
|
9 |
+
官方范例:<url>https://github.com/huggingface/accelerate/tree/main/examples</url>
|
10 |
|
11 |
+
本文将以一个图片分类模型为例,演示在 Accelerate 的帮助下使用 PyTorch 编写一套可以在 CPU、单 GPU、多 GPU (DDP) 模式、TPU 下通用的训练代码。
|
12 |
|
13 |
+
在我们的演示范例中,在 Kaggle 的双 GPU 环境下,双 GPU (DDP) 模式是单 GPU 训练速度的 1.6 倍,加速效果非常明显。
|
14 |
|
|
|
15 |
|
16 |
+
DP 和 DDP 的区别
|
17 |
|
18 |
+
* DP (DataParallel):实现简单但更慢。只能单机多卡使用。GPU 分成 server 节点和 worker 节点,有负载不均衡。
|
19 |
+
* DDP (DistributedDataParallel):更快但实现麻烦。可单机多卡也可多机多卡。各个 GPU 是平等的,无负载不均衡。
|
20 |
|
21 |
+
参考文章:《PyTorch 中的分布式训练之 DP vs. DDP》<url>https://zhuanlan.zhihu.com/p/356967195</url>
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
22 |
|
23 |
|
24 |
```python
|
25 |
+
#从 git 安装最新的 accelerate 仓库
|
26 |
!pip install git+https://github.com/huggingface/accelerate
|
27 |
```
|
28 |
|
29 |
+
Kaggle 源码:https://www.kaggle.com/code/lyhue1991/kaggle-ddp-tpu-examples
|
30 |
|
31 |
|
32 |
+
## 一、使用 CPU / 单 GPU 训练你的 PyTorch 模型
|
|
|
|
|
33 |
|
|
|
34 |
|
35 |
+
当系统存在 GPU 时,Accelerate 会自动使用 GPU 训练你的 PyTorch 模型,否则会使用 CPU 训练模型。
|
|
|
36 |
|
37 |
```python
|
38 |
import os,PIL
|
|
|
156 |
|
157 |
#training_loop(epochs = 5,lr = 1e-3,batch_size= 1024,ckpt_path = "checkpoint.pt",
|
158 |
# mixed_precision="no")
|
|
|
159 |
```
|
160 |
|
161 |
```python
|
|
|
165 |
```
|
166 |
|
167 |
```
|
|
|
168 |
device cuda is used!
|
169 |
epoch【0】@2023-01-15 12:06:45 --> eval_metric= 95.20%
|
170 |
epoch【1】@2023-01-15 12:07:01 --> eval_metric= 96.79%
|
171 |
epoch【2】@2023-01-15 12:07:17 --> eval_metric= 98.47%
|
172 |
epoch【3】@2023-01-15 12:07:34 --> eval_metric= 98.78%
|
173 |
epoch【4】@2023-01-15 12:07:51 --> eval_metric= 98.87%
|
|
|
174 |
```
|
175 |
|
176 |
|
177 |
|
178 |
+
## 二、使用多 GPU DDP 模式训练你的 PyTorch 模型
|
179 |
|
180 |
|
181 |
+
Kaggle 中右边 settings 中的 ACCELERATOR 选择 GPU T4x2。
|
182 |
|
183 |
|
184 |
+
### 1. 设置 config
|
185 |
|
186 |
```python
|
187 |
import os
|
|
|
218 |
|
219 |
```
|
220 |
|
221 |
+
### 2. 训练代码
|
222 |
|
223 |
|
224 |
与之前代码完全一致。
|
225 |
|
226 |
+
如果是脚本方式启动,需要将训练代码写入到脚本文件中,如 `cv_example.py`
|
227 |
|
228 |
```python
|
229 |
%%writefile cv_example.py
|
|
|
351 |
|
352 |
```
|
353 |
|
354 |
+
### 3. 执行代码
|
355 |
|
356 |
|
357 |
+
**方式 1: 在 Notebook 中启动**
|
358 |
|
359 |
```python
|
360 |
from accelerate import notebook_launcher
|
|
|
380 |
```
|
381 |
|
382 |
|
383 |
+
**方式 2: Accelerate 方式执行脚本**
|
|
|
384 |
|
385 |
```python
|
386 |
!accelerate launch ./cv_example.py
|
|
|
396 |
```
|
397 |
|
398 |
|
399 |
+
**方式 3: PyTorch 方式执行脚本**
|
400 |
|
401 |
```python
|
402 |
+
# or traditional PyTorch style
|
403 |
!python -m torch.distributed.launch --nproc_per_node 2 --use_env ./cv_example.py
|
404 |
```
|
405 |
|
|
|
414 |
|
415 |
|
416 |
|
417 |
+
## 三、使用 TPU 加速你的 PyTorch 模型
|
418 |
|
419 |
|
420 |
+
Kaggle 中右边 Settings 中的 ACCELERATOR 选择 TPU v3-8。
|
421 |
|
422 |
|
423 |
+
### 1. 安装 `torch_xla`
|
424 |
|
425 |
```python
|
426 |
#安装torch_xla支持
|
|
|
439 |
import torch_xla
|
440 |
```
|
441 |
|
442 |
+
### 2. 训练代码
|
443 |
|
444 |
|
445 |
和之前代码完全一样。
|
|
|
569 |
|
570 |
```
|
571 |
|
572 |
+
### 3. 启动训练
|
573 |
|
574 |
```python
|
575 |
from accelerate import notebook_launcher
|
|
|
583 |
|
584 |
```
|
585 |
|
586 |
+
作者介绍:吃货本货。算法工程师,擅长数据挖掘和计算机视觉算法。eat pytorch/tensorflow/pyspark 系列 GitHub 开源教程的作者。
|
|