Update README.md
Browse files
README.md
CHANGED
@@ -21,39 +21,56 @@ pipeline_tag: text-generation
|
|
21 |
|
22 |
# 介绍
|
23 |
|
24 |
-
基于
|
25 |
|
26 |
-
|
27 |
|
28 |
-
|
|
|
|
|
29 |
|
30 |
-
###
|
31 |
|
32 |
-
|
|
|
|
|
|
|
|
|
33 |
|
34 |
### 模型下载:
|
35 |
-
| 版本 | 全量模型 | 8-bit量化 | 4-bit量化 | 3-bit量化 |
|
36 |
-
|
37 |
-
|
|
38 |
-
|
|
39 |
-
| 20230917-v0.5 | 🤗 [Sakura-13B-Galgame-v0.5](https://huggingface.co/sakuraumi/Sakura-13B-Galgame) | 🤗 [Sakura-13B-Galgame-v0.5-8bits](https://huggingface.co/sakuraumi/Sakura-13B-Galgame/tree/main/sakura_13b_model_v0.5_8bits) | 🤗 [Sakura-13B-Galgame-v0.5-4bits](https://huggingface.co/sakuraumi/Sakura-13B-Galgame/tree/main/sakura_13b_model_v0.5_4bits_autogptq_40k) | - |
|
40 |
-
| 20231011-v0.7 | 🤗 [Kisara-14B-LNovel](https://huggingface.co/sakuraumi/Sakura-14B-LNovel) | - | - | - |
|
41 |
-
| 20231026-v0.8 | 🤗 [Sakura-13B-LNovel-v0.8](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8) | 🤗 [Sakura-13B-LNovel-v0.8-8bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-8bit) | 🤗 [Sakura-13B-LNovel-v0.8-4bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-4bit) | 🤗 [Sakura-13B-LNovel-v0.8-3bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-3bit) |
|
42 |
|
43 |
-
|
44 |
|
45 |
# 显存需求
|
46 |
|
47 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
48 |
|
49 |
-
|
50 |
-
|:-------:|:-------:|:-------:|:-------:|
|
51 |
-
| 全量 | 超出游戏显卡显存范围 | - | - |
|
52 |
-
| 8bit | 17G | 21.1G | 23.4G |
|
53 |
-
| 4bit | 11.3G | 14.9G | 17.4G |
|
54 |
-
| 3bit | 9.7G | 13.7G | 15.5G |
|
55 |
|
56 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
57 |
|
58 |
## Docker部署
|
59 |
|
@@ -140,6 +157,8 @@ python translate_novel.py \
|
|
140 |
|
141 |
# 日志
|
142 |
|
|
|
|
|
143 |
`20231026`:上传第五版模型`sakura-13b-2epoch-3.8M-1025-v0.8`,改善数据集质量与格式,修复之前版本模型无法正确解析\n的问题,使用Baichuan2-13B-Chat模型进行微调。
|
144 |
|
145 |
`20231011`:上传第四版模型`sakura-14b-2epoch-4.4M-1003-v0.7`,改用QWen-14B-Chat模型进行微调,增加数据集。
|
|
|
21 |
|
22 |
# 介绍
|
23 |
|
24 |
+
基于OpenBuddy(v0.1-v0.4), Qwen-14B(v0.7,v0.9)和Baichuan2-13B(v0.5,v0.8)构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型. 新建了[TG交流群](https://t.me/+QMDKZyO9GV1kNDA1),欢迎交流讨论。
|
25 |
|
26 |
+
**如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。**
|
27 |
|
28 |
+
### 快速开始
|
29 |
+
- [python部署教程](https://sakura.srpr.moe)
|
30 |
+
- [llama.cpp一键包教程](https://books.fishhawk.top/forum/656d60530286f15e3384fcf8)
|
31 |
|
32 |
+
### News
|
33 |
|
34 |
+
1. 预览版v0.9.0pre1模型发布。
|
35 |
+
|
36 |
+
2. **网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.8-4bit),站内有大量模型翻译结果可供参考。你也可以自行部署模型并使用该网站生成机翻,目前已经支持v0.8与v0.9模型,且提供了llama.cpp一键包。**
|
37 |
+
|
38 |
+
轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
|
39 |
|
40 |
### 模型下载:
|
41 |
+
| 版本 | 全量模型 | 8-bit量化 | 4-bit量化 | 3-bit量化 | GGUF | AWQ
|
42 |
+
|:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|
|
43 |
+
| 20231026-v0.8 | 🤗 [Sakura-13B-LNovel-v0.8](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8) | 🤗 [Sakura-13B-LNovel-v0_8-8bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-8bit) | 🤗 [Sakura-13B-LNovel-v0_8-4bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-4bit) | 🤗 [Sakura-13B-LNovel-v0_8-3bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-3bit) | 🤗 [Sakura-13B-LNovel-v0_8-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-GGUF) | 🤗 [Sakura-13B-LNovel-v0_8-AWQ](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-AWQ) |
|
44 |
+
| 20231125-v0.9.0pre1 | 🤗 [Sakura-13B-LNovel-v0.9.0pre1](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9.0pre1) | - | - | - | 🤗 [Sakura-13B-LNovel-v0.9.0pre1-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9.0pre1-GGUF) | - |
|
|
|
|
|
|
|
45 |
|
46 |
+
目前仍为实验版本,翻译质量在文风与流畅度上强于GPT-3.5,但词汇量逊于GPT-3.5. 个人使用推荐GPT4.
|
47 |
|
48 |
# 显存需求
|
49 |
|
50 |
+
下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。
|
51 |
+
|
52 |
+
- llama.cpp GGUF模型(使用v0.9.0pre1模型进行测试,v0.8模型��其类似)
|
53 |
+
|
54 |
+
| 模型量化类型 | 模型大小 | 推荐显存大小 |
|
55 |
+
|:-------:|:-------:|:-------:|
|
56 |
+
| fp16 | 26.3G | 超出游戏显卡显存范围 |
|
57 |
+
| Q8_0 | 14G | 24G |
|
58 |
+
| Q6_K | 11.4G | 20G |
|
59 |
+
| Q5_K_M | 10.1G | 16G |
|
60 |
+
| Q4_K_M | 8.8G | 16G |
|
61 |
+
| Q3_K_M | 7.2G | 16G |
|
62 |
+
| Q2_K | 6.1G | 12G |
|
63 |
|
64 |
+
- transformers autogptq模型(使用v0.8版本进行测试)
|
|
|
|
|
|
|
|
|
|
|
65 |
|
66 |
+
| 模型量化类型 | 推理显存(ctx约600) | 推理显存(ctx约1800) |
|
67 |
+
|:-------:|:-------:|:-------:|
|
68 |
+
| 全量 | 超出游戏显卡显存范围 | 超出游戏显卡显存范围 |
|
69 |
+
| 8bit | 21.1G | 23.4G |
|
70 |
+
| 4bit | 14.9G | 17.4G |
|
71 |
+
| 3bit | 13.7G | 15.5G |
|
72 |
+
|
73 |
+
# 使用
|
74 |
|
75 |
## Docker部署
|
76 |
|
|
|
157 |
|
158 |
# 日志
|
159 |
|
160 |
+
`20231125`: 上传第六版模型预览,改善数据集质量与格式,使用Qwen-14B-Chat模型进行继续预训练+微调,增加数据集。
|
161 |
+
|
162 |
`20231026`:上传第五版模型`sakura-13b-2epoch-3.8M-1025-v0.8`,改善数据集质量与格式,修复之前版本模型无法正确解析\n的问题,使用Baichuan2-13B-Chat模型进行微调。
|
163 |
|
164 |
`20231011`:上传第四版模型`sakura-14b-2epoch-4.4M-1003-v0.7`,改用QWen-14B-Chat模型进行微调,增加数据集。
|