ebisuke's picture
initial commit
ce42fdb
|
raw
history blame
2.58 kB
---
language:
- ja
datasets:
- ebisuke/liz-nojaloli-ja-ds
---
# ebisuke/liz-nojaloli-nxja-ja
## License
[MIT](https://opensource.org/licenses/MIT)
ベースとして[abeja/gpt-neox-japanese-2.7b](https://huggingface.co./abeja/gpt-neox-japanese-2.7b)を使用しています。
## Description
のじゃロリ風味チャットモデルです。
[ebisuke/liz-nojaloli-ja](ebisuke/liz-nojaloli-ja)のバリアントです。
[abeja/gpt-neox-japanese-2.7b](https://huggingface.co./abeja/gpt-neox-japanese-2.7b)をベースとしてファインチューンしています。
開発者の趣味と個人的な勉強用の為に作成しました。
いろいろと不足しているのであまり会話は通じません。
__本モデルは開発中のため、データセットの更新により逐次アップデートされる可能性があります。__
## Datasets
ファインチューンでは以下のデータセットのみ使用しています。
[ebisuke/liz-nojaloli-ja-ds](https://huggingface.co./datasets/ebisuke/liz-nojaloli-ja-ds)
## Usage
ユーザーの入力を"`相手は言いました。「(内容)」\n`"で括ってください。
モデルは"`あなたは言いました。「`"以降の文脈を生成します。
それ以降も続く場合があるので必要に応じて"`」`"の文字までで打ち切ってください。
```python
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", use_fast=True)
model = AutoModelForCausalLM.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", load_in_8bit=True, device_map='auto')
text = "相手は言いました。「眠いにゃ・・・」 \nあなたは言いました。「"
token_ids = tokenizer.encode(text, add_special_tokens=False, return_tensors="pt")
with torch.no_grad():
output_ids = model.generate(
input_ids=token_ids.to(model.device),
max_new_tokens=1000,
do_sample=True,
temperature=0.7,
pad_token_id=tokenizer.pad_token_id,
bos_token_id=tokenizer.bos_token_id,
eos_token_id=tokenizer.eos_token_id,
)
output = tokenizer.decode(output_ids.tolist()[0],skip_special_tokens=True)
print(output)
```
## Plan
- RLHFとかに挑戦してみる。
- プロンプトの記述方法を、既存のチャットモデルのフォーマットに合わせるか検討中。
- 指示をあまり受け付けない・物を知らない方が好みなので、そういうチューニングは限定的です。