calm3-22b-RP / README.md
Aratako's picture
Update README.md
deb6312 verified
---
base_model: [cyberagent/calm3-22b-chat, Aratako/calm3-22b-RP-v0.1]
library_name: transformers
tags:
- mergekit
- merge
datasets:
- Aratako/Synthetic-Japanese-Roleplay-NSFW-Claude-3.5s-10.5k-formatted
- Aratako/Synthetic-Japanese-Roleplay-gpt-4o-mini-19.8k-formatted
- Aratako/Rosebleu-1on1-Dialogues-RP
- SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed
- grimulkan/LimaRP-augmented
- MinervaAI/Aesir-Preview
- openerotica/freedom-rp
- openerotica/lima-nsfw
- Chaser-cz/roleplay_scripts
- roleplay4fun/aesir-v1.1
---
# calm3-22b-RP
[GGUF版はこちら/Click here for the GGUF version](https://huggingface.co./Aratako/calm3-22b-RP-GGUF)
また、[こちら](https://huggingface.co./spaces/Aratako/calm3-22b-RP-demo)で本モデルのデモを公開しています。ぜひお試しください。
## 概要
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
[cyberagent/calm3-22b-chat](https://huggingface.co./cyberagent/calm3-22b-chat)と、これをベースとしてロールプレイ用にファインチューニングしたモデルである[Aratako/calm3-22b-RP-v0.1](https://huggingface.co./Aratako/calm3-22b-RP-v0.1)をマージして作成したモデルです。
利用した学習データセットやパラメータ等の詳細は元モデルのモデルカードを参照してください。
## プロンプトフォーマット
元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。
```
<|im_start|>system
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|>
<|im_start|>user
{userの1ターン目の入力}<|im_end|>
<|im_start|>assistant
{assistantの1ターン目の応答}<|im_end|>
<|im_start|>user
{userの2ターン目の入力}<|im_end|>
<|im_start|>assistant
```
また、`tokenizer.apply_chat_template()`を使って自動で成形することも可能です。
```
tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP")
messages = [
{"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"},
{"role": "user", "content": "{userの1ターン目の入力}"},
{"role": "assistant", "content": "{assistantの1ターン目の入力}"},
{"role": "user", "content": "{userの2ターン目の入力}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
```
## マージの詳細
マージに利用しているモデルは以下の通りです。
- [cyberagent/calm3-22b-chat](https://huggingface.co./cyberagent/calm3-22b-chat)
- [Aratako/calm3-22b-RP-v0.1](https://huggingface.co./Aratako/calm3-22b-RP-v0.1)
また、mergekitのconfigは以下の通りです。
```yaml
models:
- model: cyberagent/calm3-22b-chat
# no parameters necessary for base model
- model: Aratako/calm3-22b-RP-v0.1
parameters:
weight: 0.5
merge_method: breadcrumbs
base_model: cyberagent/calm3-22b-chat
dtype: bfloat16
tokenizer_source: base
parameters:
density: 0.9
gamma: 0.01
```
## ライセンス
本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。
そのため、本モデルは[CC-BY-NC-SA 4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.ja)の元配布します。