metadata
license: apache-2.0
language:
- ja
Mixtral-8x7B-Instruct-v0.1と
Mixtral-8x7B-v0.1の差分をマージしたモデルです。
Swallow-MX-8x7b-NVE-v0.1 + 0.8*(Mixtral-8x7B-Instruct-v0.1 - Mixtral-8x7B-v0.1)
aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct のアウトプットの語彙がおかしい場合に使用してください。
日本語がより自然になります
context size 32k token使用可能な日本語対応ローカル用LLMとしては2024年3月時点では最高クラスの性能です