Update README.md
Browse files
README.md
CHANGED
@@ -31,7 +31,6 @@ load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False
|
|
31 |
|
32 |
|
33 |
# 必要なライブラリをインストール
|
34 |
-
%%capture
|
35 |
!pip install unsloth
|
36 |
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
|
37 |
!pip install -U torch
|
@@ -57,7 +56,6 @@ HF_R=userdata.get('HF_R')
|
|
57 |
|
58 |
!huggingface-cli login --token $HF_R
|
59 |
|
60 |
-
%%time
|
61 |
dtype = None # Noneにしておけば自動で設定
|
62 |
load_in_4bit = True # 今回は13Bモデルを扱うためTrue
|
63 |
|
@@ -87,7 +85,6 @@ with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
|
|
87 |
datasets.append(json.loads(item))
|
88 |
item = ""
|
89 |
|
90 |
-
%%time
|
91 |
# モデルを用いてタスクの推論。
|
92 |
|
93 |
# 推論するためにモデルのモードを変更
|
|
|
31 |
|
32 |
|
33 |
# 必要なライブラリをインストール
|
|
|
34 |
!pip install unsloth
|
35 |
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
|
36 |
!pip install -U torch
|
|
|
56 |
|
57 |
!huggingface-cli login --token $HF_R
|
58 |
|
|
|
59 |
dtype = None # Noneにしておけば自動で設定
|
60 |
load_in_4bit = True # 今回は13Bモデルを扱うためTrue
|
61 |
|
|
|
85 |
datasets.append(json.loads(item))
|
86 |
item = ""
|
87 |
|
|
|
88 |
# モデルを用いてタスクの推論。
|
89 |
|
90 |
# 推論するためにモデルのモードを変更
|