File size: 3,154 Bytes
4b95cf0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
---
language: ko
license: mit
tags:
- summarization
- bart
---
# kobart-news
- This model is a [kobart](https://huggingface.co./hyunwoongko/kobart) fine-tuned on the [๋ฌธ์์์ฝ ํ
์คํธ/์ ๋ฌธ๊ธฐ์ฌ](https://aihub.or.kr/aidata/8054) using [Ainize Teachable-NLP](https://ainize.ai/teachable-nlp).
## Usage
### Python Code
```python
from transformers import PreTrainedTokenizerFast, BartForConditionalGeneration
# Load Model and Tokenize
tokenizer = PreTrainedTokenizerFast.from_pretrained("ainize/kobart-news")
model = BartForConditionalGeneration.from_pretrained("ainize/kobart-news")
# Encode Input Text
input_text = '๊ตญ๋ด ์ ๋ฐ์ ์ธ ๊ฒฝ๊ธฐ์นจ์ฒด๋ก ์๊ฐ ๊ฑด๋ฌผ์ฃผ์ ์์ต๋ ์ ๊ตญ์ ์ธ ๊ฐ์์ธ๋ฅผ ๋ณด์ด๊ณ ์๋ ๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. ์์ตํ ๋ถ๋์ฐ ์ฐ๊ตฌ๊ฐ๋ฐ๊ธฐ์
์๊ฐ์ ๋ณด์ฐ๊ตฌ์๋ ํ๊ตญ๊ฐ์ ์ ํต๊ณ๋ฅผ ๋ถ์ํ ๊ฒฐ๊ณผ ์ ๊ตญ ์ค๋ํ ์๊ฐ ์์์
์๋(๋ถ๋์ฐ์์ ๋ฐ์ํ๋ ์๋์์
, ๊ธฐํ์์
์์ ์ ๋ฐ ๊ฒฝ๋น๋ฅผ ๊ณต์ ํ ์์๋)์ด 1๋ถ๊ธฐ ใก๋น 3๋ง4200์์์ 3๋ถ๊ธฐ 2๋ง5800์์ผ๋ก ๊ฐ์ํ๋ค๊ณ 17์ผ ๋ฐํ๋ค. ์๋๊ถ, ์ธ์ข
์, ์ง๋ฐฉ๊ด์ญ์์์ ์์์
์๋์ด ๊ฐ์ฅ ๋ง์ด ๊ฐ์ํ ์ง์ญ์ 3๋ถ๊ธฐ 1๋ง3100์์ ๊ธฐ๋กํ ์ธ์ฐ์ผ๋ก, 1๋ถ๊ธฐ 1๋ง9100์ ๋๋น 31.4% ๊ฐ์ํ๋ค. ์ด์ด ๋๊ตฌ(-27.7%), ์์ธ(-26.9%), ๊ด์ฃผ(-24.9%), ๋ถ์ฐ(-23.5%), ์ธ์ข
(-23.4%), ๋์ (-21%), ๊ฒฝ๊ธฐ(-19.2%), ์ธ์ฒ(-18.5%) ์์ผ๋ก ๊ฐ์ํ๋ค. ์ง๋ฐฉ ๋์์ ๊ฒฝ์ฐ๋ ๋น์ทํ๋ค. ๊ฒฝ๋จ์ 3๋ถ๊ธฐ ์์์
์๋์ 1๋ง2800์์ผ๋ก 1๋ถ๊ธฐ 1๋ง7400์ ๋๋น 26.4% ๊ฐ์ํ์ผ๋ฉฐ ์ ์ฃผ(-25.1%), ๊ฒฝ๋ถ(-24.1%), ์ถฉ๋จ(-20.9%), ๊ฐ์(-20.9%), ์ ๋จ(-20.1%), ์ ๋ถ(-17%), ์ถฉ๋ถ(-15.3%) ๋ฑ๋ ๊ฐ์์ธ๋ฅผ ๋ณด์๋ค. ์กฐํํ ์๊ฐ์ ๋ณด์ฐ๊ตฌ์ ์ฐ๊ตฌ์์ "์ฌํด ๋ด์ ๊ฒฝ๊ธฐ์ ์นจ์ฒด๋ ๋ถ์๊ธฐ๊ฐ ์ ์ง๋๋ฉฐ ์๊ฐ, ์คํผ์ค ๋ฑ์ ๋น๋กฏํ ์์ตํ ๋ถ๋์ฐ ์์ฅ์ ๋ถ์๊ธฐ๋ ๊ฒฝ์ง๋ ๋ชจ์ต์ ๋ณด์๊ณ ์คํผ์คํ
, ์ง์์ฐ์
์ผํฐ ๋ฑ์ ์์ตํ ๋ถ๋์ฐ ๊ณต๊ธ๋ ์ฆ๊ฐํด ๊ณต์ค์ ์ํ๋ ๋์๋ค"๋ฉฐ "์ค์ ์ฌ 3๋ถ๊ธฐ ์ ๊ตญ ์ค๋ํ ์๊ฐ ๊ณต์ค๋ฅ ์ 11.5%๋ฅผ ๊ธฐ๋กํ๋ฉฐ 1๋ถ๊ธฐ 11.3% ๋๋น 0.2% ํฌ์ธํธ ์ฆ๊ฐํ๋ค"๊ณ ๋งํ๋ค. ๊ทธ๋ "์ต๊ทผ ์์
์ปค๋จธ์ค(SNS๋ฅผ ํตํ ์ ์์๊ฑฐ๋), ์์ ๋ฐฐ๋ฌ ์ค๊ฐ ์ ํ๋ฆฌ์ผ์ด์
, ์ค๊ณ ๋ฌผํ ๊ฑฐ๋ ์ ํ๋ฆฌ์ผ์ด์
๋ฑ์ ์ฌ์ฉ ์ฆ๊ฐ๋ก ์คํ๋ผ์ธ ๋งค์ฅ์ ์ํฅ์ ๋ฏธ์ณค๋ค"๋ฉฐ "ํฅํ ์ง์ญ, ์ฝํ
์ธ ์ ๋ฐ๋ฅธ ์๊ถ ์๊ทนํ ํ์์ ์ฌํ๋ ๊ฒ์ผ๋ก ๋ณด์ธ๋ค"๊ณ ๋ง๋ถ์๋ค.'
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate Summary Text Ids
summary_text_ids = model.generate(
input_ids=input_ids,
bos_token_id=model.config.bos_token_id,
eos_token_id=model.config.eos_token_id,
length_penalty=2.0,
max_length=142,
min_length=56,
num_beams=4,
)
# Decoding Text
print(tokenizer.decode(summary_text_ids[0], skip_special_tokens=True))
```
### API and Demo
You can experience this model through [ainize-api](https://ainize.ai/gkswjdzz/summarize-torchserve?branch=main) and [ainize-demo](https://main-summarize-torchserve-gkswjdzz.endpoint.ainize.ai/).
|