Uso di base completato!
Ottimo lavoro per aver seguito il corso fino a questo punto! Per fare un riassunto, in questo capitolo abbiamo visto:
- Imparare gli elementi di base di un modello Transformer.
- Imparare a conoscere gli elementi che compongono una pipeline di tokenizzazione.
- Hai visto come utilizzare un modello Transformer nella pratica.
- Imparare a sfruttare un tokenizer per convertire il testo in tensori comprensibili dal modello.
- Impostare un tokenizer e un modello insieme per passare dal testo alle previsioni.
- Imparare i limiti degli ID di input e conoscere le maschere di attenzione.
- Abbiamo giocato con metodi di tokenizzazione versatili e configurabili.
D’ora in poi, dovreste essere in grado di navigare liberamente nella documentazione di Transformers 🤗: il vocabolario vi suonerà familiare e avrete già visto i metodi che userete la maggior parte delle volte.