Mixtral-8x7B-Instruct-v0.1と
Mixtral-8x7B-v0.1の差分をマージしたモデルです。
Swallow-MX-8x7b-NVE-v0.1 + 0.8*(Mixtral-8x7B-Instruct-v0.1 - Mixtral-8x7B-v0.1)
aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct のアウトプットの語彙がおかしい場合に使用してください。
日本語がより自然になります
context size 32k token使用可能な日本語対応ローカル用LLMとしては2024年3月時点では最高クラスの性能です
- Downloads last month
- 35
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.