Upload README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,13 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
LLM-JP-3-13B ファインチューニングモデル
|
2 |
|
3 |
# モデル詳細
|
@@ -16,7 +26,7 @@ pip install -U bitsandbytes transformers accelerate datasets peft
|
|
16 |
|
17 |
# 使用方法
|
18 |
以下は、モデルの基本的な使用例です(python):
|
19 |
-
|
20 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
21 |
from peft import PeftModel, LoraConfig
|
22 |
import torch
|
@@ -85,3 +95,4 @@ with torch.no_grad():
|
|
85 |
|
86 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
87 |
print(response)
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- ja
|
4 |
+
- en
|
5 |
+
tags:
|
6 |
+
- llm
|
7 |
+
- question answering
|
8 |
+
- text generation
|
9 |
+
---
|
10 |
+
|
11 |
LLM-JP-3-13B ファインチューニングモデル
|
12 |
|
13 |
# モデル詳細
|
|
|
26 |
|
27 |
# 使用方法
|
28 |
以下は、モデルの基本的な使用例です(python):
|
29 |
+
```
|
30 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
31 |
from peft import PeftModel, LoraConfig
|
32 |
import torch
|
|
|
95 |
|
96 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
97 |
print(response)
|
98 |
+
```
|