Einführung
In Kapitel 2 haben wir behandelt, wie man Tokenizer und vortrainierte Modelle verwendet, um Vorhersagen zu treffen. Was passiert aber, wenn wir ein vortrainiertes Modell für unseren eigenen Datensatz optimieren möchten? Das ist das Thema dieses Kapitels! Folgendes wirst du lernen:
- Wie bereitet man einen großen Datensatz aus dem Hub vor?
- Wie nutzt man die höhere
Trainer
API um Modelle zu fein-tunen? - Wie implementiert man eine benutzerdefinierte Trainingsschleife
- Wie nutzen wir die 🤗 Accelerate Bibliothek für benutzerdefinierte Trainingschleifen auf verteilten Systemen
Um deine trainierten Checkpoints auf den Hugging Face Hub hochzuladen, benötigst du ein huggingface.co-Konto: Erstelle ein Konto