base_model:
- tokyotech-llm/Swallow-13b-instruct-hf
- nitky/Superswallow-13b-v0.2
license: llama2
language:
- ja
tags:
- mergekit
- merge
- MoE
Swallow-MoE-2x13B-v0.1
概要
Llama-2ベースの学習済み日本語モデルであるtokyotech-llm/Swallow-13b-instruct-hfと、それを利用したマージモデルであるnitky/Superswallow-13b-v0.2 を、mergekitを使ってMoEを行い作成したモデルです。
以下2モデルを利用しています。
ライセンス
Llama2ライセンスを継承しますが、それ以外にもこのマージモデルはLlama2ライセンス以外のライセンスの影響を受けます。
- nitky/Superswallow-13b-v0.2の利用により、AI2 ImpACT licenseを継承している可能性があります。詳細は元モデルの概要をご確認ください。
ベンチマーク
ベースとしたSwallow-13b-instruct-hf、Superswallow-13b-v0.2と本モデルのjapanese-mt-benchの結果は以下の通りです。 (シングルターン)
Model | Size | Coding | Extraction | Humanities | Math | Reasoning | Roleplay | STEM | Writing | avg_score |
---|---|---|---|---|---|---|---|---|---|---|
Swallow-13b-instruct-hf | 13B | 2.1 | 5.0 | 6.1 | 1.9 | 4.5 | 5.0 | 4.9 | 5.6 | 4.3875 |
Superswallow-13b-v0.2 | 13B | 2.7 | 6.3 | 8.4 | 2.2 | 5.9 | 6.8 | 7.2 | 6.8 | 5.7875 |
This model | 2x13B | 2.6 | 6.2 | 8.4 | 2.3 | 5.3 | 7.4 | 7.7 | 8.4 | 6.0375 |
- Swallow-13b-instruct-hf, Superswallow-13b-v0.2
以下に、あるタスクを説明する指示があり、それに付随する入力が更なる文脈を提供しています。リクエストを適切に完了するための回答を記述してください。
### 指示:
{instruction}
### 応答:
- Swallow-MoE-2x13B-v0.1
### 指示:
{instruction}
### 応答:
Description
This model is created using MoE (Mixture of Experts) through mergekit based on tokyotech-llm/Swallow-13b-instruct-hf and nitky/Superswallow-13b-v0.2.
Click here for the GGUF version
It utilizes the following two models:
License
While inheriting the Llama2 license, this merged model is also subject to other licenses due to its use of models beyond Llama2.
- Due to the use of nitky/Superswallow-13b-v0.2, it may inherit the AI2 ImpACT license. Please refer to the original model's overview for details.
Benchmark
The results of this model and the base Swallow-13b-instruct-hf, Superswallow-13b-v0.2 on japanese-mt-bench are as follows. (Single turn)
Model | Size | Coding | Extraction | Humanities | Math | Reasoning | Roleplay | STEM | Writing | avg_score |
---|---|---|---|---|---|---|---|---|---|---|
Swallow-13b-instruct-hf | 13B | 2.1 | 5.0 | 6.1 | 1.9 | 4.5 | 5.0 | 4.9 | 5.6 | 4.3875 |
Superswallow-13b-v0.2 | 13B | 2.7 | 6.3 | 8.4 | 2.2 | 5.9 | 6.8 | 7.2 | 6.8 | 5.7875 |
This model | 2x13B | 2.6 | 6.2 | 8.4 | 2.3 | 5.3 | 7.4 | 7.7 | 8.4 | 6.0375 |
Prompt used for benchmark
- Swallow-13b-instruct-hf, Superswallow-13b-v0.2
以下に、あるタスクを説明する指示があり、それに付随する入力が更なる文脈を提供しています。リクエストを適切に完了するための回答を記述してください。
### 指示:
{instruction}
### 応答:
- Swallow-MoE-2x13B-v0.1
### 指示:
{instruction}
### 応答:
Merge config
base_model: ./Superswallow-13b-v0.2
gate_mode: random
dtype: bfloat16
experts:
- source_model: ./Superswallow-13b-v0.2
positive_prompts: []
- source_model: ./Swallow-13b-instruct-hf
positive_prompts: []
tokenizer_source: union