章節簡介
在第三章,您瞭解瞭如何微調文本分類的模型。在本章中,我們將處理以下常見NLP任務:
- 標記(token)分類
- 遮罩語言建模(如BERT)
- 提取文本摘要
- 翻譯
- 因果語言建模預訓練(如GPT-2)
- 問答
為此,您需要利用第三章中學到的Trainer
API 和🤗Accelerate 庫、第五章中的 🤗 Datasets 庫以及第六章中的 🤗 Tokenizers 庫的所有知識。我們還會將結果上傳到模型中心,就像我們在第四章中所做的那樣,所以這確實是將之前所有內容彙集在一起的章節!
每個部分都可以獨立閱讀,並將向您展示如何使用API或按照您自己的訓練循環訓練模型,使用🤗 Accelerate 加速。你可以隨意跳過其中一部分,把注意力集中在你最感興趣的那一部分:API可以優化或訓練您的模型而無需擔心幕後發生了什麼,而訓練循環使用可以讓您更輕鬆地自定義所需的任何結構。
如果您按順序閱讀這些部分,您會注意到它們有很多共同的代碼和陳述。 重複是有意為之的,讓您可以深入(或稍後返回)任何您感興趣的任務並找到一個完整的工作示例。