|
--- |
|
license: mit |
|
base_model: |
|
- SWivid/F5-TTS |
|
--- |
|
## F5-TTS Tensorrt-LLM Faster |
|
|
|
为 F5-TTS 进行推理加速,测试样例如下: |
|
|
|
+ `NVIDIA GeForce RTX 3090` |
|
+ 测试文本为: `这点请您放心,估计是我的号码被标记了,请问您是沈沈吗?` |
|
|
|
经测试,推理速度由`3.2s`降低为`0.72s`, 速度提升 **4** 倍! |
|
|
|
整个项目 workflow 可概述如下: |
|
1. 先将 `F5-TTS` 用 `ONNX` 导出,导出为三部分; |
|
2. 然后使用 `Tensorrt-LLM` 对有关 `Transformer` 部分进行网络的改写以便于加速,前端和decode仍使用`ONNX`推理,当然也可以指定`CUDAExecutionProvider`、`OpenVINOExecutionProvider`等。 |
|
|
|
本仓库存储模型权重,包括 `torch`、`ONNX`、`trtllm`。 |
|
|
|
详细请看(项目构建、权重转换、快速推理):https://github.com/WGS-note/F5_TTS_Faster |
|
|
|
> F5-TTS 的学习笔记也会发,敬请期待,公众号:**WGS的学习笔记** |
|
|
|
> 开源不易,欢迎 star |
|
|
|
特别感谢以下两个开源项目的贡献: |
|
+ https://github.com/DakeQQ/F5-TTS-ONNX |
|
+ https://github.com/Bigfishering/f5-tts-trtllm |