イントロダクション
🤗 コースへようこそ!
このコースでは、Hugging Faceのエコシステムを形成するライブラリである🤗 Transformers、🤗 Datasets、🤗 Tokenizers、🤗 Accelerate、そしてHugging Face Hubを使って自然言語処理(NLP)について学習することができます。このコースは、完全に無料で取り組むことができ、広告もありません。
何を学ぶことができるのか?
こちらがこのコースの概要になります:
- 第1章から第4章では、🤗 Transformersライブラリのメインコンセプトを紹介します。このパートを終える頃には、Transformerモデルがどのように機能するかを理解し、Hugging Face Hubにあるモデルを利用し、データセットでfine-tuningを行い、その成果をHub上で共有する方法を身につけることができるでしょう!
- 第5章から第8章では、代表的なNLPタスクに取り掛かる前に、🤗 Datasetsと🤗 Tokenizersの基礎を学びます。このパートを終える頃には、大半のNLPの課題に自分で取り組むことができるようになります。
- 第9章から第12章では、NLPの範囲にとどまらず、音声処理とコンピュータビジョンのタスクにTransformerモデルをどのように適用できるかを検討します。その過程で、モデルのデモを作成して共有することや本番環境用にモデルを最適化する方法を学ぶことができます。このパートを終える頃には、🤗 Transformersを(ほとんど)全ての機械学習の問題に適用する知識が身についていることでしょう!
このコースでは:
- Pythonの知識が必要です
- コースに取り組む前に、深層学習の入門コースであるfast.aiによる Practical Deep Learning for CodersやDeepLearning.AIが開発したプログラムなどを受講した方がよいでしょう
- PyTorchやTensorFlowの事前知識は必須ではありませんが、どちらかに精通していると理解がより促進されるでしょう
このコースを修了した後は、DeepLearning.AIのNatural Language Processing Specializationをご覧いただくことをお勧めします。ナイーブベイズやLSTMなどの従来のNLPモデルを幅広くカバーしており、これらも理解しておいて損はありませんよ!
私たちについて
筆者のプロフィール:
Matthew CarriganはHugging Faceの機械学習エンジニアです。アイルランドのダブリンに住んでおり、以前はParse.lyで機械学習エンジニアとして、それ以前はトリニティ・カレッジ・ダブリンでポスドク研究員として働いていました。彼は、既存のアーキテクチャを拡張することでAGI(汎用人工知能)に到達できるとは思っていませんが、ロボットによる不死には大きな期待を寄せています。
Lysandre DebutはHugging Faceの機械学習エンジニアで、かなり初期の開発段階から🤗 Transformersライブラリに携わってきました。彼の目標は、非常にシンプルなAPIのツールを開発することによって、誰もがNLPにアクセスできるようにすることです。
Sylvain GuggerはHugging Faceのリサーチエンジニアで、🤗 Transformersライブラリのコアメンテナーの1人です。以前は、fast.aiのリサーチサイエンティストで、Jeremy Howard氏とDeep Learning for Coders with fastai and PyTorchを共同執筆しています。限られたリソースでモデルを高速に学習させる技術を設計・改善することで、深層学習をより身近なものにすることに研究の焦点を置いています。
Merve NoyanはHugging Faceのデベロッパーアドボケイトであり、誰もが機械学習に取り組めるようなツールの開発とその周辺のコンテンツ作成に取り組んでいます。
Lucile SaulnierはHugging Faceの機械学習エンジニアで、オープンソースツールの開発および利用のサポートを行っています。また、共同でのモデルの学習やBigScienceなど、自然言語処理の分野で多くの研究プロジェクトに積極的に参加しています。
Lewis TunstallはHugging Faceの機械学習エンジニアで、オープンソースツールの開発とより広いコミュニティで利用されるようにすることに注力しています。また、オライリー出版のTransformersに関する本の著者の1人です。
Leandro von WerraはHugging Faceのオープンソースチームの機械学習エンジニアであり、オライリー出版のTransformersに関する本の著者の1人です。機械学習全般に関わり、NLPプロジェクトを実運用に移行する経験をこの業界で数年積んでいます。
準備はできていますか?この章では、以下のことを学びます:
pipeline()
機能を使ったテキスト生成や分類などNLPタスクの取り組み方- Transformerのアーキテクチャについて
- エンコーダ、デコーダ、エンコーダ・デコーダのアーキテクチャとユースケースの見分け方