style refine.
Browse files
bloom-inference-pytorch-scripts-cn.md
CHANGED
@@ -1,12 +1,12 @@
|
|
1 |
# 使用 DeepSpeed 和 Accelerate 进行超快 BLOOM 模型推理
|
2 |
|
3 |
-
本文展示了如何使用 1760
|
4 |
|
5 |
-
因为在使用 bf16
|
6 |
|
7 |
一般来讲,使用单节点会带来最快的吞吐,因为大多数时候节点内的 GPU 互联硬件比节点间的快,但未必总是如此。
|
8 |
|
9 |
-
如果你没有这么高端的硬件或没有这么多硬件,你仍可能通过 CPU
|
10 |
|
11 |
我们计划涉及 [8 比特量化方案](https://huggingface.co/blog/hf-bitsandbytes-integration),该方案以稍慢的吞吐为代价将显存需求减少到一半。我们还会讨论 [BitsAndBytes](https://github.com/TimDettmers/bitsandbytes) 和 [Deepspeed-Inference](https://www.deepspeed.ai/tutorials/inference-tutorial/) 库。
|
12 |
|
@@ -37,7 +37,7 @@ Deepspeed-Inference 使用了预分片的权重仓库,整个加载时间大约
|
|
37 |
|
38 |
加载时间有可能重要也可能并不重要,因为一旦加载成功你可以一遍遍持续不断地生成词而不再需要额外地加载开销。
|
39 |
|
40 |
-
|
41 |
|
42 |
下面列出了 8x80GB GPU 的吞吐,单位为毫秒:
|
43 |
|
@@ -49,15 +49,15 @@ Deepspeed-Inference 使用了预分片的权重仓库,整个加载时间大约
|
|
49 |
| ds-inference int8 | 89.09 | 11.44 | 5.88 | 3.09 | 1.71 | 1.02 | 0.71 | oom |
|
50 |
| ds-zero bf16 | 283 | 34.88 | oom | | | | | |
|
51 |
|
52 |
-
这里,
|
53 |
|
54 |
-
使用 Deepspeed-Inference
|
55 |
|
56 |
-
Accelerate
|
57 |
|
58 |
-
因为 Deepspeed-ZeRO 可以并行处理多路生成流,其吞吐可以再除以 8 或者 16,具体数值取决于在调用 `generate` 时用了 8 个 GPU 还是 16 个 GPU。当然,这也意味着在 8x80GB A100
|
59 |
|
60 |
-
让我们再重新看一下这些数字是怎么计算出来的。举个例子,使用 Deepspeed-Inference fp16 模式实时生成 batch size 为 128、长度为 100 个新词的文本花了 8832 毫秒,因此我们可以这样计算吞吐:钟面时间
|
61 |
|
62 |
现在我们一起看看 Deepspeed-Inference 和 BitsAndBytes 提供的 int8 量化模型的威力,它仅需占用 bfloat16 或 float16 推理所需显存的一半。
|
63 |
|
@@ -88,10 +88,10 @@ cd transformers-bloom-inference
|
|
88 |
|
89 |
Accelerate 按如下步骤进行大模型推理:
|
90 |
1. 用空的权重实例化模型。
|
91 |
-
2.
|
92 |
3. 逐比特加载模型 checkpoint 并把权重加载到相应的设备。
|
93 |
|
94 |
-
|
95 |
|
96 |
在有多个 GPU 且有足够空间放下整个模型的情形下,该方案在 GPU 间逐个切换直至所有层运行完毕。每个给定的时间只有一个 GPU 工作,这听起来很没效率。但尽管该方案 GPU 存在空闲,它的吞吐却相当不错。
|
97 |
|
@@ -135,7 +135,7 @@ CUDA_VISIBLE_DEVICES=0,1,2,3 python bloom-inference-scripts/bloom-accelerate-inf
|
|
135 |
|
136 |
## DeepSpeed-Inference
|
137 |
|
138 |
-
[DeepSpeed-Inference](https://www.deepspeed.ai/tutorials/inference-tutorial/)
|
139 |
|
140 |
### 设置
|
141 |
|
@@ -145,14 +145,13 @@ pip install deepspeed>=0.7.3
|
|
145 |
|
146 |
### 运行
|
147 |
|
148 |
-
1.最快的方法是使用 TP
|
149 |
|
150 |
```
|
151 |
deepspeed --num_gpus 8 bloom-inference-scripts/bloom-ds-inference.py --name microsoft/bloom-deepspeed-inference-fp16
|
152 |
```
|
153 |
|
154 |
-
1a.
|
155 |
-
如果你想要运行原始 bloom checkpoint,这个 checkpoint 一旦加载就会跟之前的方案跑到相同的吞吐,但加载需要花 10 到 20 分钟。
|
156 |
|
157 |
```
|
158 |
deepspeed --num_gpus 8 bloom-inference-scripts/bloom-ds-inference.py --name bigscience/bloom
|
@@ -176,11 +175,9 @@ deepspeed --num_gpus 4 bloom-inference-scripts/bloom-ds-inference.py --name micr
|
|
176 |
|
177 |
可以看到,本方案中有两个因素在获得更好的性能上起到了主导作用。
|
178 |
|
179 |
-
1.
|
180 |
-
|
181 |
2. DeepSpeed-Inference 还使用了定制的 CUDA 核函数以避免分配太多内存以及太多进出 GPU 的张量拷贝。这么做会减少显存需求及核函数启动次数从而提高吞吐,另外还可以支持更大的 batch size 从而进一步增加总吞吐。
|
182 |
|
183 |
-
|
184 |
如果你对更多的例子感兴趣,可以看看 [在 GPU 上使用 DeepSpeed-Inference 加速 GPT-J 推理](https://www.philschmid.de/gptj-deepspeed-inference) 或 [在 GPU 上使用 DeepSpeed-Inference 加速 BERT 推理](https://www.philschmid.de/bert-deepspeed-inference)。
|
185 |
|
186 |
## Deepspeed ZeRO-Inference
|
@@ -227,17 +224,14 @@ deepspeed --num_gpus 1 bloom-inference-scripts/bloom-ds-zero-inference.py --name
|
|
227 |
服务器方案:
|
228 |
|
229 |
* [Mayank Mishra](https://github.com/mayank31398) 拿着本博文中讨论的所有演示代码并把它们变成了一个网络服务包,你可以从 [这儿](https://github.com/huggingface/transformers-bloom-inference) 下载。
|
230 |
-
|
231 |
* [Nicolas Patry](https://github.com/Narsil) 开发了一个超高效的 [基于 Rust 的网络服务方案](https://github.com/Narsil/bloomserver)。
|
232 |
|
233 |
更多的客户端方案:
|
234 |
|
235 |
* [Thomas Wang](https://github.com/thomasw21) 正在开发一个很快的 [定制 CUDA 核函数的 BLOOM 模型](https://github.com/huggingface/transformers_bloom_parallel)。
|
236 |
-
|
237 |
* HuggingFace 的 JAX 组已开发了一个 [基于 JAX 的方案](https://github.com/huggingface/bloom-jax-inference)
|
238 |
|
239 |
-
|
240 |
-
因为如果你在本博文发布几个月后读到它,很有可能它已经不能反映最新的状态了,你可以去 [transformers-bloom-inference](https://github.com/huggingface/transformers-bloom-inference) 找到最新的方案。
|
241 |
|
242 |
|
243 |
## 致谢
|
|
|
1 |
# 使用 DeepSpeed 和 Accelerate 进行超快 BLOOM 模型推理
|
2 |
|
3 |
+
本文展示了如何使用 1760 亿 (176B) 参数的 [BLOOM 模型](https://huggingface.co/bigscience/bloom) 生成文本时如何获得超快的词吞吐 (per token throughput)。
|
4 |
|
5 |
+
因为在使用 bf16 (bfloat16) 权重时该模型内存占用为 352 GB (`176*2`),所以最高效的硬件配置是使用 8x80GB 的 A100 GPU。也可使用 2x8x40GB 的 A100 或者 2x8x48GB 的 A6000。使用这些 GPU 的主要原因是截至本文成稿时为止它们是能提供最大显存的 GPU,但你也可以使用其他 GPU。比如,可以使用 24x32GB V100。
|
6 |
|
7 |
一般来讲,使用单节点会带来最快的吞吐,因为大多数时候节点内的 GPU 互联硬件比节点间的快,但未必总是如此。
|
8 |
|
9 |
+
如果你没有这么高端的硬件或没有这么多硬件,你仍可能通过 CPU 卸载 (CPU offload) 或是 NVMe 卸载 (NVMe offload) 的方式在更小的 GPU 上对 BLOOM 进行推理。当然,生成时间会慢很多。
|
10 |
|
11 |
我们计划涉及 [8 比特量化方案](https://huggingface.co/blog/hf-bitsandbytes-integration),该方案以稍慢的吞吐为代价将显存需求减少到一半。我们还会讨论 [BitsAndBytes](https://github.com/TimDettmers/bitsandbytes) 和 [Deepspeed-Inference](https://www.deepspeed.ai/tutorials/inference-tutorial/) 库。
|
12 |
|
|
|
37 |
|
38 |
加载时间有可能重要也可能并不重要,因为一旦加载成功你可以一遍遍持续不断地生成词而不再需要额外地加载开销。
|
39 |
|
40 |
+
接着是最重要的测试基准指标:词生成吞吐 (token generation throughput) 。这个吞吐的度量比较简单,即:生成 100 个新词的时间除以 100 和 batch size (也就是除以生成的总词数) 。
|
41 |
|
42 |
下面列出了 8x80GB GPU 的吞吐,单位为毫秒:
|
43 |
|
|
|
49 |
| ds-inference int8 | 89.09 | 11.44 | 5.88 | 3.09 | 1.71 | 1.02 | 0.71 | oom |
|
50 |
| ds-zero bf16 | 283 | 34.88 | oom | | | | | |
|
51 |
|
52 |
+
这里, 当内存耗尽 (Out Of Memory,OOM) 时即表明 batch size 太大 GPU 显存放不下了。
|
53 |
|
54 |
+
使用 Deepspeed-Inference 的张量并行 (Tensor Parallelism,TP) 和定制化融合 CUDA 核函数可以得到小于 1 毫秒的吞吐!太棒了!尽管使用这个方案去推理那些尚未被验证过的模型时,你可能会需要花一些时间去开发从而让它工作起来。
|
55 |
|
56 |
+
Accelerate 也超级快。它使用了非常简单的管线并行 (Pipeline Parallelism,PP) 。因为它非常简单,所以它应该对任何模型都是开箱即用的。
|
57 |
|
58 |
+
因为 Deepspeed-ZeRO 可以并行处理多路生成流,其吞吐可以再除以 8 或者 16,具体数值取决于在调用 `generate` 时用了 8 个 GPU 还是 16 个 GPU。当然,这也意味着在 8x80GB A100 的情况下 (见上表) ,可以处理的 batch size 为 64 且吞吐可至大约 4 毫秒。因此,这 3 种方案的性能是接近的。
|
59 |
|
60 |
+
让我们再重新看一下这些数字是怎么计算出来的。举个例子,使用 Deepspeed-Inference fp16 模式实时生成 batch size 为 128、长度为 100 个新词的文本花了 8832 毫秒,因此我们可以这样计算吞吐:钟面时间 / ( batch size * 新词数 ) 或 `8821/(128*100) = 0.69`。
|
61 |
|
62 |
现在我们一起看看 Deepspeed-Inference 和 BitsAndBytes 提供的 int8 量化模型的威力,它仅需占用 bfloat16 或 float16 推理所需显存的一半。
|
63 |
|
|
|
88 |
|
89 |
Accelerate 按如下步骤进行大模型推理:
|
90 |
1. 用空的权重实例化模型。
|
91 |
+
2. 分析每层的大小以及每个设备 (CPU, CPU) 的可用空间,并决定每层应该在哪个设备上推理。
|
92 |
3. 逐比特加载模型 checkpoint 并把权重加载到相应的设备。
|
93 |
|
94 |
+
然后,它会使用钩子代码 (hook) 来确保模型正确运行,钩子代码被用于在正确的设备间传输输入和输出,并在前向轮运行前加载那些卸载到 CPU (甚至硬盘) 上的权重到 GPU,然后在前向轮结束后再次把权重卸载。
|
95 |
|
96 |
在有多个 GPU 且有足够空间放下整个模型的情形下,该方案在 GPU 间逐个切换直至所有层运行完毕。每个给定的时间只有一个 GPU 工作,这听起来很没效率。但尽管该方案 GPU 存在空闲,它的吞吐却相当不错。
|
97 |
|
|
|
135 |
|
136 |
## DeepSpeed-Inference
|
137 |
|
138 |
+
[DeepSpeed-Inference](https://www.deepspeed.ai/tutorials/inference-tutorial/) 使用张量并行 (Tensor Parallelism) 以及高效的融合 CUDA 核函数在 128 这个大 batch size 下达到了每词 1 毫秒的超快推理性能。
|
139 |
|
140 |
### 设置
|
141 |
|
|
|
145 |
|
146 |
### 运行
|
147 |
|
148 |
+
1.最快的方法是使用 TP 预分片 (TP = Tensor Parallel) 的 checkpoint,与非预分片的 bloom checkpoint 相比,它仅需大约 1 分钟即可加载:
|
149 |
|
150 |
```
|
151 |
deepspeed --num_gpus 8 bloom-inference-scripts/bloom-ds-inference.py --name microsoft/bloom-deepspeed-inference-fp16
|
152 |
```
|
153 |
|
154 |
+
1a. 如果你想要运行原始 bloom checkpoint,这个 checkpoint 一旦加载就会跟之前的方案跑到相同的吞吐,但加载需要花 10 到 20 分钟。
|
|
|
155 |
|
156 |
```
|
157 |
deepspeed --num_gpus 8 bloom-inference-scripts/bloom-ds-inference.py --name bigscience/bloom
|
|
|
175 |
|
176 |
可以看到,本方案中有两个因素在获得更好的性能上起到了主导作用。
|
177 |
|
178 |
+
1. 本方案的吞吐提高主要来自于张量并行 (Tensor Parallelism,TP) 而不是 Acclerate 的管线并行 (Pipeline Parallelism,PP) 。因为 Accelerate 旨在成为非常通用的方案,因此也非常不幸地很难最大化 GPU 使用率。它首先在 GPU 0 上完成所有计算,然后是 GPU 1,等等,一直到 GPU 8,这意味着任何时刻都有 7 个 GPU 是空闲的。而另一方面,DeepSpeed-Inference 使用了 TP��意味着它会向所有 GPU 发送张量,在每个 GPU 上计算部分生成结果,然后在所有的 GPU 间通信计算结果,并继续做下一层。这就是说 TP 所有的 GPU 都同时是活跃的,但它需要比 PP 多得多的通信。
|
|
|
179 |
2. DeepSpeed-Inference 还使用了定制的 CUDA 核函数以避免分配太多内存以及太多进出 GPU 的张量拷贝。这么做会减少显存需求及核函数启动次数从而提高吞吐,另外还可以支持更大的 batch size 从而进一步增加总吞吐。
|
180 |
|
|
|
181 |
如果你对更多的例子感兴趣,可以看看 [在 GPU 上使用 DeepSpeed-Inference 加速 GPT-J 推理](https://www.philschmid.de/gptj-deepspeed-inference) 或 [在 GPU 上使用 DeepSpeed-Inference 加速 BERT 推理](https://www.philschmid.de/bert-deepspeed-inference)。
|
182 |
|
183 |
## Deepspeed ZeRO-Inference
|
|
|
224 |
服务器方案:
|
225 |
|
226 |
* [Mayank Mishra](https://github.com/mayank31398) 拿着本博文中讨论的所有演示代码并把它们变成了一个网络服务包,你可以从 [这儿](https://github.com/huggingface/transformers-bloom-inference) 下载。
|
|
|
227 |
* [Nicolas Patry](https://github.com/Narsil) 开发了一个超高效的 [基于 Rust 的网络服务方案](https://github.com/Narsil/bloomserver)。
|
228 |
|
229 |
更多的客户端方案:
|
230 |
|
231 |
* [Thomas Wang](https://github.com/thomasw21) 正在开发一个很快的 [定制 CUDA 核函数的 BLOOM 模型](https://github.com/huggingface/transformers_bloom_parallel)。
|
|
|
232 |
* HuggingFace 的 JAX 组已开发了一个 [基于 JAX 的方案](https://github.com/huggingface/bloom-jax-inference)
|
233 |
|
234 |
+
因为如果你在本博文发布几个月后读到它,很有可能它已经不能反映最新的状态了,你可以去 [transformers-bloom-inference 的 GitHub 仓库](https://github.com/huggingface/transformers-bloom-inference) 找到最新的方案。
|
|
|
235 |
|
236 |
|
237 |
## 致谢
|