|
--- |
|
language: |
|
- ko |
|
- en |
|
pipeline_tag: text-generation |
|
tags: |
|
- vicuna |
|
- llama |
|
--- |
|
|
|
|
|
<p align="center" width="100%"> |
|
<img src="https://i.imgur.com/snFDU0P.png" alt="KoreanLM icon" style="width: 500px; display: block; margin: auto; border-radius: 10%;"> |
|
</p> |
|
|
|
|
|
# KoreanLM: ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ ํ๋ก์ ํธ |
|
|
|
KoreanLM์ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๊ฐ๋ฐํ๊ธฐ ์ํ ์คํ์์ค ํ๋ก์ ํธ์
๋๋ค. ํ์ฌ ๋๋ถ๋ถ์ ์ธ์ด๋ชจ๋ธ๋ค์ ์์ด์ ์ด์ ์ ๋ง์ถ๊ณ ์์ด, ํ๊ตญ์ด์ ๋ํ ํ์ต์ด ์๋์ ์ผ๋ก ๋ถ์กฑํ๊ณ ํ ํฐํ ๊ณผ์ ์์ ๋นํจ์จ์ ์ธ ๊ฒฝ์ฐ๊ฐ ์์ต๋๋ค. ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ณ ํ๊ตญ์ด์ ์ต์ ํ๋ ์ธ์ด๋ชจ๋ธ์ ์ ๊ณตํ๊ธฐ ์ํด KoreanLM ํ๋ก์ ํธ๋ฅผ ์์ํ๊ฒ ๋์์ต๋๋ค. |
|
|
|
|
|
## ํ๋ก์ ํธ ๋ชฉํ |
|
|
|
1. ํ๊ตญ์ด์ ํนํ๋ ์ธ์ด๋ชจ๋ธ ๊ฐ๋ฐ: ํ๊ตญ์ด์ ๋ฌธ๋ฒ, ์ดํ, ๋ฌธํ์ ํน์ฑ์ ๋ฐ์ํ์ฌ ํ๊ตญ์ด๋ฅผ ๋ ์ ํํ๊ฒ ์ดํดํ๊ณ ์์ฑํ ์ ์๋ ์ธ์ด๋ชจ๋ธ์ ๊ฐ๋ฐํฉ๋๋ค. |
|
|
|
2. ํจ์จ์ ์ธ ํ ํฐํ ๋ฐฉ์ ๋์
: ํ๊ตญ์ด ํ
์คํธ์ ํ ํฐํ ๊ณผ์ ์์ ํจ์จ์ ์ด๊ณ ์ ํํ ๋ถ์์ด ๊ฐ๋ฅํ ์๋ก์ด ํ ํฐํ ๋ฐฉ์์ ๋์
ํ์ฌ ์ธ์ด๋ชจ๋ธ์ ์ฑ๋ฅ์ ํฅ์์ํต๋๋ค. |
|
|
|
3. ๊ฑฐ๋ ์ธ์ด๋ชจ๋ธ์ ์ฌ์ฉ์ฑ ๊ฐ์ : ํ์ฌ ๊ฑฐ๋ํ ์ฌ์ด์ฆ์ ์ธ์ด๋ชจ๋ธ๋ค์ ๊ธฐ์
์ด ์์ฌ์ ๋ฐ์ดํฐ๋ฅผ ํ์ธํ๋ํ๊ธฐ ์ด๋ ค์ด ๋ฌธ์ ๊ฐ ์์ต๋๋ค. ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ํฌ๊ธฐ๋ฅผ ์กฐ์ ํ์ฌ ์ฌ์ฉ์ฑ์ ๊ฐ์ ํ๊ณ , ์์ฐ์ด ์ฒ๋ฆฌ ์์
์ ๋ ์ฝ๊ฒ ์ ์ฉํ ์ ์๋๋ก ํฉ๋๋ค. |
|
|
|
|
|
## ์ฌ์ฉ ๋ฐฉ๋ฒ |
|
|
|
KoreanLM์ GitHub ์ ์ฅ์๋ฅผ ํตํด ๋ฐฐํฌ๋ฉ๋๋ค. ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ๋ ค๋ฉด ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ๋ฒ์ผ๋ก ์ค์นํ์ค ์ ์์ต๋๋ค. |
|
|
|
```bash |
|
git clone https://github.com/quantumaikr/KoreanLM.git |
|
cd KoreanLM |
|
pip install -r requirements.txt |
|
``` |
|
|
|
## ์์ |
|
|
|
๋ค์์ transformers ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ํตํด ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ฅผ ๋ก๋ฉํ๋ ์์ ์
๋๋ค. |
|
|
|
```python |
|
|
|
import transformers |
|
model = transformers.AutoModelForCausalLM.from_pretrained("quantumaikr/KoreanLM") |
|
tokenizer = transformers.AutoTokenizer.from_pretrained("quantumaikr/KoreanLM") |
|
|
|
``` |
|
|
|
|
|
## ํ๋ จ (ํ์ธํ๋) |
|
|
|
```bash |
|
torchrun --nproc_per_node=4 --master_port=1004 train.py \ |
|
--model_name_or_path quantumaikr/KoreanLM \ |
|
--data_path korean_data.json \ |
|
--num_train_epochs 3 \ |
|
--cache_dir './data' \ |
|
--bf16 True \ |
|
--tf32 True \ |
|
--per_device_train_batch_size 4 \ |
|
--per_device_eval_batch_size 4 \ |
|
--gradient_accumulation_steps 8 \ |
|
--evaluation_strategy "no" \ |
|
--save_strategy "steps" \ |
|
--save_steps 500 \ |
|
--save_total_limit 1 \ |
|
--learning_rate 2e-5 \ |
|
--weight_decay 0. \ |
|
--warmup_ratio 0.03 \ |
|
--lr_scheduler_type "cosine" \ |
|
--logging_steps 1 \ |
|
--fsdp "full_shard auto_wrap" \ |
|
--fsdp_transformer_layer_cls_to_wrap 'OPTDecoderLayer' \ |
|
``` |
|
|
|
```bash |
|
pip install deepspeed |
|
torchrun --nproc_per_node=4 --master_port=1004 train.py \ |
|
--deepspeed "./deepspeed.json" \ |
|
--model_name_or_path quantumaikr/KoreanLM \ |
|
--data_path korean_data.json \ |
|
--num_train_epochs 3 \ |
|
--cache_dir './data' \ |
|
--bf16 True \ |
|
--tf32 True \ |
|
--per_device_train_batch_size 4 \ |
|
--per_device_eval_batch_size 4 \ |
|
--gradient_accumulation_steps 8 \ |
|
--evaluation_strategy "no" \ |
|
--save_strategy "steps" \ |
|
--save_steps 2000 \ |
|
--save_total_limit 1 \ |
|
--learning_rate 2e-5 \ |
|
--weight_decay 0. \ |
|
--warmup_ratio 0.03 \ |
|
``` |
|
|
|
## ํ๋ จ (LoRA) |
|
|
|
```bash |
|
python finetune-lora.py \ |
|
--base_model 'quantumaikr/KoreanLM' \ |
|
--data_path './korean_data.json' \ |
|
--output_dir './KoreanLM-LoRA' \ |
|
--cache_dir './data' |
|
``` |
|
|
|
## ์ถ๋ก |
|
|
|
```bash |
|
python generate.py \ |
|
--load_8bit \ |
|
--share_gradio \ |
|
--base_model 'quantumaikr/KoreanLM' \ |
|
--lora_weights 'quantumaikr/KoreanLM-LoRA' \ |
|
--cache_dir './data' |
|
|
|
``` |
|
|
|
## ์ฌ์ ํ์ต ๋ชจ๋ธ ๊ณต๊ฐ ๋ฐ ์น ๋ฐ๋ชจ |
|
|
|
[ํ์ต๋ชจ๋ธ](https://huggingface.co./quantumaikr/KoreanLM/tree/main) |
|
|
|
<i>* ๋ฐ๋ชจ ๋งํฌ๋ ์ถํ ๊ณต๊ณ์์ </i> |
|
|
|
|
|
|
|
|
|
## ๊ธฐ์ฌ๋ฐฉ๋ฒ |
|
|
|
1. ์ด์ ์ ๊ธฐ: KoreanLM ํ๋ก์ ํธ์ ๊ด๋ จ๋ ๋ฌธ์ ์ ์ด๋ ๊ฐ์ ์ฌํญ์ ์ด์๋ก ์ ๊ธฐํด์ฃผ์ธ์. |
|
|
|
2. ์ฝ๋ ์์ฑ: ๊ฐ์ ์ฌํญ์ด๋ ์๋ก์ด ๊ธฐ๋ฅ์ ์ถ๊ฐํ๊ธฐ ์ํด ์ฝ๋๋ฅผ ์์ฑํ์ค ์ ์์ต๋๋ค. ์์ฑ๋ ์ฝ๋๋ Pull Request๋ฅผ ํตํด ์ ์ถํด์ฃผ์๊ธฐ ๋ฐ๋๋๋ค. |
|
|
|
3. ๋ฌธ์ ์์ฑ ๋ฐ ๋ฒ์ญ: ํ๋ก์ ํธ์ ๋ฌธ์ ์์ฑ์ด๋ ๋ฒ์ญ ์์
์ ์ฐธ์ฌํ์ฌ ํ๋ก์ ํธ์ ์ง์ ๋์ฌ์ฃผ์ธ์. |
|
|
|
4. ํ
์คํธ ๋ฐ ํผ๋๋ฐฑ: ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ๋ฉด์ ๋ฐ๊ฒฌํ ๋ฒ๊ทธ๋ ๊ฐ์ ์ฌํญ์ ํผ๋๋ฐฑํด์ฃผ์๋ฉด ํฐ ๋์์ด ๋ฉ๋๋ค. |
|
|
|
## ๋ผ์ด์ ์ค |
|
|
|
KoreanLM ํ๋ก์ ํธ๋ Apache 2.0 License ๋ผ์ด์ ์ค๋ฅผ ๋ฐ๋ฆ
๋๋ค. ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ์ค ๋ ๋ผ์ด์ ์ค์ ๋ฐ๋ผ ์ฃผ์์ฌํญ์ ์ง์ผ์ฃผ์๊ธฐ ๋ฐ๋๋๋ค. |
|
|
|
|
|
## ๊ธฐ์ ๋ฌธ์ |
|
|
|
KoreanLM ํ๋ก์ ํธ์ ๊ด๋ จ๋ ๋ฌธ์์ฌํญ์ด ์์ผ์๋ฉด ์ด๋ฉ์ผ ๋๋ GitHub ์ด์๋ฅผ ํตํด ๋ฌธ์ํด์ฃผ์๊ธฐ ๋ฐ๋๋๋ค. ์ด ํ๋ก์ ํธ๊ฐ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๋ํ ์ฐ๊ตฌ์ ๊ฐ๋ฐ์ ๋์์ด ๋๊ธธ ๋ฐ๋ผ๋ฉฐ, ๋ง์ ๊ด์ฌ๊ณผ ์ฐธ์ฌ ๋ถํ๋๋ฆฝ๋๋ค. |
|
|
|
|
|
์ด๋ฉ์ผ: [email protected] |
|
|
|
|
|
--- |
|
|
|
This repository has implementations inspired by [open_llama](https://github.com/openlm-research/open_llama), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca) and [alpaca-lora](https://github.com/tloen/alpaca-lora) projects. |