File size: 2,798 Bytes
29210db ed369bb db9666c ed369bb db9666c ed369bb db9666c ed369bb db9666c ed369bb db9666c ed369bb db9666c ed369bb 29210db 4de78c0 6dbad32 4de78c0 29210db |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 |
---
license: cc-by-4.0
base_model: paust/pko-t5-large
tags:
- generated_from_trainer
model-index:
- name: t5-large-finetuned-multi_v2
results: []
widget:
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :내일 용인에서 상차하고 다시 용인에서 하차하는 화물 추천해줘"
example_title: "화물추천"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :내일 오후 우면동 날씨"
example_title: "날씨예보"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :전기충전소 안내해줘"
example_title: "장소안내"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :경부고속도로 상황 알려줘"
example_title: "일상대화"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :하차 담당자에게 문의해줘"
example_title: "전화연결"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :진행해줘"
example_title: "긍부정"
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# t5-large-finetuned-multi_v2
This model is a fine-tuned version of [paust/pko-t5-large](https://huggingface.co./paust/pko-t5-large) on the None dataset.
## Model description
|의도 |개체 |
|:------:|:-----------|
| 일상대화 | |
| 전화연결 |대상|
| 장소안내 |장소, 대상|
| 날씨예보 |날짜, 장소, 대상, 시간, 조건|
| 화물추천 |날짜, 시간, 상차, 하차, 기준|
| 긍부정 |긍정, 부정, 중립|
*대상 : 상차지/하차지
## How to use
```python
import requests
API_URL = "https://api-inference.huggingface.co/models/yeye776/t5-large-finetuned-multi_v2"
headers = {"Authorization": "Bearer hf_key"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
prompt = "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :"
input = "내일 심야 상차지가 분당인 화물 추천해줘"
output = query({
"inputs": prompt+input,
"options":{"wait_for_model":True}
})
```
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0007
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.06
- num_epochs: 8
### Framework versions
- Transformers 4.34.1
- Pytorch 2.1.0+cu118
- Datasets 2.14.5
- Tokenizers 0.14.1
|