qa_kor_hospital
This model is a fine-tuned version of gogamza/kobart-base-v2 on an unknown dataset.
Model description
"gogamza/kobart-base-v2" ๊ธฐ๋ฐ์ผ๋ก ์์๊ณต์ธ ๊ณ ๊ฐ ์ฃผ๋ฌธ ์ง์-์๋ต ํ
์คํธ์ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ์ฌ ๋ณ์ ์ง์ ์๋ต ๋ด์ฉ์ Fine Tuning ํ ๋ชจ๋ธ์
๋๋ค.
text = f"์ง๋ฌธ: {question}\n์๋: {intend}\nํญ๋ชฉ: {content}\n" ๋ฅผ ์
๋ ฅํ๋ฉด ์
๋ ฅ ์ฌํญ์ ๋ง๋ ๋ต๋ณ์ด ์ถ๋ ฅ ๋๋๋ก ํ์ตํ์ต๋๋ค.
๋ณ์ intend์ ์ข
๋ฅ์ ๋ํด ์ดํด๋ณด๊ฒ ์ต๋๋ค.
['์ ํ_์์ฌ_์ง๋ฌธ', '์ ํ_์ถ์ฒ_์ง๋ฌธ', '๊ตํ|๋ฐํ|ํ๋ถ_์ผ๋ฐ_์์ฒญ', '๊ฒฐ์ _์ผ๋ฐ_์ง๋ฌธ', '์ ํ_์ฉ๋_ํ์ธ',
'์ ํ_์ฌ๊ณ _์์ฒญ', '๊ฒฐ์ _์๋จ_์ง๋ฌธ', '๊ฒฐ์ _์ผ๋ฐ_ํ์ธ', '๊ฒฐ์ _์ผ๋ฐ_์์ฒญ', '์ ํ_ํ์ง_ํ์ธ',
'์ ํ_์ ๋ณด_ํ์ธ', '์ ํ_๋ฐฉ๋ฒ_ํ์ธ', 'ํฌ์ฅ_์ผ๋ฐ_์ง๋ฌธ', '์ ํ_์ ๋ณด_์์ฒญ', 'AS_์๊ฐ_์ง๋ฌธ',
'์น์ฌ์ดํธ_์ฌ์ฉ_์์ฒญ', '์ ํ_์ฉ๋_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_์ฌ์ฉ_์ง๋ฌธ', '๋ฐฐ์ก_๋น์ฉ_์ง๋ฌธ', '์ ํ_์ ๋ณด_์ง๋ฌธ',
'์ ํ_๊ฐ๊ฒฉ_์ง๋ฌธ', '์น์ฌ์ดํธ_์ฌ์ฉ_์ง๋ฌธ', '์ ํ_์ฌ๊ณ _์ง๋ฌธ', '์ ํ_๋ฐฉ๋ฒ_์ง๋ฌธ', 'ํ์ฌ_์ผ๋ฐ_์ง๋ฌธ',
'๋ฐฐ์ก_์ผ๋ฐ_์์ฒญ', '์ ํ_๋ ์ง_์ง๋ฌธ', '๊ตํ|๋ฐํ|ํ๋ถ_๋ฐฉ๋ฒ_์ง๋ฌธ', '์ ํ_์ ๋ณด_๋น๊ต', '์ ํ_์ถ์ฒ_์์ฒญ',
'์ ํ_์ผ๋ฐ_์์ฒญ', '์ ํ_์ผ๋ฐ_์ง๋ฌธ', '์ ํ_์ผ๋ฐ_ํ์ธ', '์ ํ_์์ฌ_ํ์ธ', '์ ํ_์
๊ณ _์ง๋ฌธ',
'๊ฒฐ์ _ํ ์ธ_์ง๋ฌธ', '์ ํ_๋ ์ง_์์ฒญ', '์น์ฌ์ดํธ_์ฌ์ฉ_ํ์ธ', '์ ํ_๊ฐ๊ฒฉ_ํ์ธ', '์ ํ_ํ์ง_์ง๋ฌธ',
'๊ตํ|๋ฐํ|ํ๋ถ_์ผ๋ฐ_์ง๋ฌธ', '๊ฒฐ์ _์ทจ์_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_์ฌ์ฉ_ํ์ธ', '์ ํ_๊ฐ๊ฒฉ_์์ฒญ', '์ ํ_๊ตฌ์ฑ_์ง๋ฌธ',
'๋ฐฐ์ก_์ผ๋ฐ_ํ์ธ', '์ ํ_๋ถ๋_ํ์ธ', '์ ํ_ํธํ_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_์ผ๋ฐ_์ง๋ฌธ', '์ ํ_๊ตฌ์ฑ_ํ์ธ',
'๊ตํ|๋ฐํ|ํ๋ถ_๋ฐฉ๋ฒ_์์ฒญ', 'ํฌ์ฅ_๋ฐฉ์_์ง๋ฌธ', '๋ฐฐ์ก_๋ฐฉ๋ฒ_์ง๋ฌธ', '์ ํ_์ถ์ฒ_ํ์ธ',
'๊ตํ|๋ฐํ|ํ๋ถ_์๊ฐ_์ง๋ฌธ', '๊ฒฐ์ _๋ฐฉ์_์์ฒญ', '๊ฒฐ์ _๋ฐฉ์_์ง๋ฌธ', '๋ฐฐ์ก_์ง์ญ_์ง๋ฌธ', '์ ํ_์์ฐ์ง_์ง๋ฌธ',
'์ ํ_์ฌ๊ณ _ํ์ธ', '์ ํ_์ฉ๋_๋น๊ต', '๊ฒฐ์ _ํ ์ธ_์์ฒญ', '๊ฒฐ์ _์ทจ์_์์ฒญ', '์ ํ_๋ฐฉ๋ฒ_์์ฒญ',
'๊ฒฐ์ _์๊ธฐ_์ง๋ฌธ', '๊ฒฐ์ _์์์ฆ_์์ฒญ', 'ํ์ฌ_๊ธฐ๊ฐ_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_์ผ๋ฐ_์์ฒญ', '๊ฒฐ์ _์๋จ_์์ฒญ',
'๊ฒฐ์ _์ฌ๊ฒฐ์ _ํ์ธ', '๋ฐฐ์ก_๋ ์ง_์ง๋ฌธ', '์ ํ_๊ฐ๊ฒฉ_๋น๊ต', '์ ํ_์์ฌ_๋น๊ต', 'ํ์ฌ_์ ํ_์ง๋ฌธ',
'์ ํ_๊ตฌ์ฑ_์์ฒญ', '๊ฒฐ์ _์์์ฆ_์ง๋ฌธ', '์ ํ_ํ์ง_์์ฒญ', '์ ํ_๋ฐฉ๋ฒ_๋น๊ต', '๋ฐฐ์ก_๋ฐฉ๋ฒ_ํ์ธ',
'์ ํ_์ถ์ฒ_๋น๊ต', '์ ํ_๋ ์ง_ํ์ธ', '์น์ฌ์ดํธ_์ค๋ฅ_์ง๋ฌธ', '๊ฒฐ์ _์๋จ_ํ์ธ', '๊ฒฐ์ _์ทจ์_ํ์ธ',
'์ ํ_์ผ๋ฐ_๋น๊ต', '๋ฐฐ์ก_์ผ๋ฐ_์ง๋ฌธ', '์ ํ_๋ถ๋_์์ฒญ', 'ํฌ์ฅ_์ผ๋ฐ_์์ฒญ', 'ํ์ฌ_์ ํ_ํ์ธ',
'ํฌ์ฅ_๋ฐฉ์_ํ์ธ', 'AS_์ผ๋ฐ_์ง๋ฌธ', '์น์ฌ์ดํธ_๊ฐ์
_์ง๋ฌธ', '๊ฒฐ์ _์ฌ๊ฒฐ์ _์์ฒญ', '์ ํ_์
๊ณ _ํ์ธ',
'๊ฒฐ์ _์ฌ๊ฒฐ์ _์ง๋ฌธ', '์ ํ_์์ฐ์ง_ํ์ธ', '์ ํ_ํธํ_ํ์ธ', '์น์ฌ์ดํธ_์ฌ์ฉ_๋น๊ต', 'AS_์ผ๋ฐ_ํ์ธ',
'AS_์ผ๋ฐ_์์ฒญ', '๊ฒฐ์ _์ถ๊ฐ_์์ฒญ', '์ ํ_์ฉ๋_์์ฒญ', 'ํฌ์ฅ_๋ฐฉ์_์์ฒญ', '๋ฉค๋ฒ์ญ_์ผ๋ฐ_ํ์ธ',
'๋ฉค๋ฒ์ญ_์ ๋ฆฝ_์ง๋ฌธ', '์ ํ_ํธํ_๋น๊ต', '์ ํ_๋ถ๋_์ง๋ฌธ', 'ํ์ฌ_์ผ๋ฐ_ํ์ธ', 'ํฌ์ฅ_๋น์ฉ_์ง๋ฌธ',
'์ ํ_๊ตฌ์ฑ_๋น๊ต', 'ํ์ฌ_์ผ๋ฐ_๋น๊ต', '๋ฉค๋ฒ์ญ_์ ๋ฆฝ_ํ์ธ', '๊ฒฐ์ _ํ ์ธ_ํ์ธ', '๋ฐฐ์ก_์ง์ญ_ํ์ธ',
'๋ฐฐ์ก_๋น์ฉ_ํ์ธ', '์ ํ_ํ์ง_๋น๊ต', 'AS_๋ฐฉ๋ฒ_์ง๋ฌธ', 'ํ์ฌ_๊ธฐ๊ฐ_ํ์ธ', '๊ฒฐ์ _๋ฐฉ์_ํ์ธ',
'๊ฒฐ์ _์๊ธฐ_์์ฒญ', 'ํ์ฌ_์ผ๋ฐ_์์ฒญ', '๋ฉค๋ฒ์ญ_๊ฐ์
_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_๊ฐ์
_ํ์ธ', 'ํฌ์ฅ_์ผ๋ฐ_ํ์ธ',
'ํฌ์ฅ_๋น์ฉ_์์ฒญ', '๋ฐฐ์ก_๋ฐฉ๋ฒ_์์ฒญ', '๊ฒฐ์ _์ถ๊ฐ_์ง๋ฌธ', '๊ตํ|๋ฐํ|ํ๋ถ_์ผ๋ฐ_ํ์ธ', '๊ฒฐ์ _์์์ฆ_ํ์ธ',
'์ธ๋_๋น์ฉ_์ง๋ฌธ', '์ ํ_์
๊ณ _์์ฒญ', '์ธ๋_๋น์ฉ_์์ฒญ', '์์ |์
ํด์_๋ฐฉ๋ฒ_์์ฒญ', '์์ |์
ํด์_์ํ_์ง๋ฌธ',
'๊ฒฐ์ _์ค๋ฅ_ํ์ธ', '๊ฒฐ์ _์ค๋ฅ_์ง๋ฌธ', '๋ฉค๋ฒ์ญ_์ ๋ฆฝ_์์ฒญ', '์ ํ_์์ฌ_์์ฒญ', '๋ฉค๋ฒ์ญ_๊ฐ์
_์์ฒญ',
'์ ํ_๊ตฌ๋งค_์์ฒญ', '์ ํ_๊ตฌ๋งค_์ง๋ฌธ', '์ธ๋_๋ฐฉ๋ฒ_์ง๋ฌธ', '์๋ฉ_์๋ฌด_์ง๋ฌธ', '์ธ๋_์ ๋ณด_์ง๋ฌธ',
'์ธ๋_๋ฐฉ๋ฒ_์์ฒญ', '์ธ๋_์๊ฐ_์ง๋ฌธ', '๋งค์ฅ_์ด์ฉ_์ง๋ฌธ', '์ธ๋_์์ฝ_์ง๋ฌธ', '์ธ๋_์์ฝ_์์ฒญ',
'์ธ๋_์ ๋ณด_์์ฒญ', '์๋ฉ_์๋ฌด_์์ฒญ', 'ํ์ฌ_์ ๋ณด_์ง๋ฌธ', 'ํ์ฌ_๋ ์ง_์ง๋ฌธ', '๋งค์ฅ_๊ตฌ์กฐ_์ง๋ฌธ',
'์๋ฉ_๋ฐฉ๋ฒ_์์ฒญ', '๋งค์ฅ_์ด์ฉ_์์ฒญ', '์์ |์
ํด์_์ํ_์์ฒญ', '์์ |์
ํด์_์์ฝ_์ง๋ฌธ',
'์์ |์
ํด์_๋น์ฉ_์ง๋ฌธ', '์์ |์
ํด์_๋ฐฉ๋ฒ_์ง๋ฌธ', '์๋ฉ_๋ฐฉ๋ฒ_์ง๋ฌธ', '์์ |์
ํด์_์ ๋ณด_์ง๋ฌธ',
'๋งค์ฅ_๊ตฌ์กฐ_์์ฒญ', '์์ |์
ํด์_์์ฝ_์์ฒญ', '์์ |์
ํด์_๋น์ฉ_์์ฒญ', '๊ตํ|๋ฐํ|ํ๋ถ_๋น์ฉ_์ง๋ฌธ',
'๊ตํ|๋ฐํ|ํ๋ถ_๋ ์ง_์์ฒญ', '์ธ๋_์๊ฐ_์์ฒญ', '๊ตํ|๋ฐํ|ํ๋ถ_๋ ์ง_์ง๋ฌธ', '์์ |์
ํด์_์ ๋ณด_์์ฒญ',
'ํ์ฌ_๋ ์ง_์์ฒญ', 'ํ์ฌ_์ ๋ณด_์์ฒญ'] ๊ฐ ์์ต๋๋ค.
content์ ์ข
๋ฅ์ ๋ํด ์ดํด๋ณด๊ฒ ์ต๋๋ค.
'์ ์ฐ๊ท ', '์ข
ํฉ๋นํ๋ฏผ', ..., '์ค์ฑํ ์์ |๋ง์ทจ', '์ค์ฑํ ์์ |์ฝ', '์ฝ|์ค๋ฆฌ์กด' ๋ฑ์ด ์๊ณ , ์๋ฃ ์ํ(์์ฝํ ๋ฑ) ์ด 5,781 ๊ฐ๊ฐ ์์ต๋๋ค.
Intended uses & limitations
More information needed
Training and evaluation data
์์๊ณต์ธ ๊ณ ๊ฐ ์ฃผ๋ฌธ ์ง์-์๋ต ํ ์คํธ์ ๋ฐ์ดํฐ ์ค์ ๋ณ์ ๋ฐ์ดํฐ๋ง ํ์ตํ๋ ๋ฐ ์ฌ์ฉ์ด ๋์์ต๋๋ค.
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 400
- num_epochs: 3
Framework versions
- Transformers 4.38.2
- Pytorch 2.1.0+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2
- Downloads last month
- 3
Model tree for idah4/qa_kor_hospital
Base model
distilbert/distilbert-base-uncased