บทนำ
ใน Chapter 2 เราได้เรียนรู้วิธีการใช้ tokenizers และโมเดลที่ผ่านการเทรนมาแล้ว (pretrained models) ในการทำนาย แต่ถ้าเราต้องการจะใช้ dataset ของเราเองในการ fine-tune โมเดลล่ะ? นั่นคือหัวข้อของบทนี้เลย! คุณจะได้เรียนรู้:
- วิธีการเตรียม dataset ขนาดใหญ่จาก Hub
- วิธีการใช้ high-level
Trainer
API ในการ fine-tune โมเดล - วิธีการใช้ training loop ที่เขียนขึ้นเอง (custom training loop)
- วิธีการใช้ประโยชน์จาก 🤗 Accelerate library ในการรัน custom training loop บน distributed setup แบบต่าง ๆ
ถ้าคุณต้องการจะ upload trained checkpoints ของคุณขึ้น Hugging Face Hub คุณจะต้องมีบัญชี huggingface.co ก่อน : create an account