dahara1's picture
Update README.md
a86022d verified
|
raw
history blame
3.89 kB
metadata
language:
  - ja

please see dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K

このモデルと投機的デコード(Speculative decoding)という新しいテクニックを使ってより大きいモデルの実行速度を上げる事ができます。
Using this model and a new technique called speculative decoding, we can speed up larger models.

CUDA 実行例 CUDA example

投機的デコードを使ってserverを起動するサンプルコマンド Example command to start a server with speculative decoding.

CUDA_VISIBLE_DEVICES=0 ./llama.cpp/llama.cpp/build/bin/llama-server \
    -m  ./llama.cpp/qwen/32B/Qwen2.5-32B-Instruct-Q8_0-f16.gguf \
    -md ./llama.cpp/qwen/Qwen2.5-0.5B-Instruct-Q8_0-f16.gguf \
    -ngl 10 -ngld 10 -e --temp 0 -fa -c 4096 \
    --draft-max 16 --draft-min 5

私のテストプロンプトの実行時間: 2520.65秒
My test prompt execution time: 2520.65 seconds

通常のserverコマンド Normal server command

CUDA_VISIBLE_DEVICES=0 ./llama.cpp/llama.cpp/build/bin/llama-server \
    -m  ./llama.cpp/qwen/32B/Qwen2.5-32B-Instruct-Q8_0-f16.gguf \
    -ngl 10 -e --temp 0 -fa -c 4096

私のテストプロンプトの実行時間: 3240.36秒
My test prompt execution time: 3240.36 seconds

フラッシュアテンションなしのserverコマンド No Flash Attention server command

CUDA_VISIBLE_DEVICES=0 ./llama.cpp/llama.cpp/build/bin/llama-server \
    -m  ./llama.cpp/qwen/32B/Qwen2.5-32B-Instruct-Q8_0-f16.gguf \
    -ngl 10 -e --temp 0 -c 4096

私のテストプロンプトの実行時間: 3285.17秒
My test prompt execution time: 3285.17 seconds

Qwen2.5-0.5B-Instruct-Q4_K_Lを使いGPUメモリも更に最適化した版 A version using Qwen2.5-0.5B-Instruct-Q4_K_L with further optimization of GPU memory

CUDA_VISIBLE_DEVICES=0 ./llama.cpp/llama.cpp/build/bin/llama-server \
    -m  ./llama.cpp/qwen/32B/Qwen2.5-32B-Instruct-Q8_0-f16.gguf \
    -md ./llama.cpp/qwen/Qwen2.5-0.5B-Instruct-Q4_K_L.gguf \
    -ngl 20 -ngld 99 -e --temp 0 -fa -c 4096 \
    --draft-max 16 --draft-min 5

私のテストプロンプトの実行時間: 2173.36秒
My test prompt execution time: 2173.36 seconds

CUDA指定なし CUDA device not specified

./llama.cpp/llama.cpp/build/bin/llama-server \
    -m  ./llama.cpp/qwen/32B/Qwen2.5-32B-Instruct-Q8_0-f16.gguf \
    -e --temp 0 -fa -c 4096

私のテストプロンプトの実行時間: 3787.47秒
My test prompt execution time: 3787.47 seconds

なお、温度0でも単独でモデルを実行した際と微妙な差異が出るケースを確認してますので再現性が最重要な場合は注意してください
I have confirmed cases where there are slight differences when running the model alone even at 0 temperature, so please be careful if reproducibility is paramount.

とはいえ、Q4を使った場合でも語尾が多少異なる程度で結論がかわるようなレベルの違いはありませんでした
However, even when Q4 was used, the endings were slightly different, but there was no difference to the extent that the conclusion was changed.

クライアントスクリプトの例はdahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128Kをご覧ください
See dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K for cliant example.

コマンドの詳細はllama.cppの公式ページをご覧ください
For more command information, see the official llama.cpp page.