転移学習の力を解き放ち、時間を節約し、AIのパフォーマンスを高め、事前トレーニング済みのモデルを使用して限られたデータで新しいタスクに取り組みます。
転移学習とは、あるタスクのために開発されたモデルを、2番目の関連タスクのモデルの開始点として再利用する機械学習(ML)手法です。膨大な量のデータと計算リソースを必要とするモデルをゼロから構築する代わりに、転移学習は、ソースタスクから学習した知識(特徴、重み、パターンなど)を活用します。このアプローチは非常に効率的であり、特にコンピュータビジョン(CV)において、現代の深層学習の基礎となっています。事前学習済みのモデルを使用することで、開発者は大幅に少ないデータと短い学習時間で、より高いパフォーマンスを達成できます。
転移学習の基本的な考え方は、画像分類用のImageNetなど、大規模で一般的なデータセットでトレーニングされたモデルが、エッジ、テクスチャ、形状などの普遍的な特徴をすでに認識することを学習しているということです。この基礎的な知識は、モデルの初期レイヤーに保存されており、多くの場合、バックボーンと呼ばれます。
このプロセスは通常、主に2つのステップで構成されます。
転移学習は単なる理論的な概念ではなく、多くの業界で実用的な応用があります。
転移学習を他の機械学習技術と区別することが重要です。
転移学習の適用は、さまざまなツールやプラットフォームを通じてアクセスしやすくなっています。PyTorchやTensorFlowのようなフレームワークは、広範なドキュメントと事前学習済みモデルを提供します。Ultralytics HUBのようなプラットフォームは、ワークフロー全体を効率化し、ユーザーがYOLOv8やYOLO11のような事前学習済みモデルを簡単にロードし、新しいデータセットでカスタムトレーニングを実行し、モデルのデプロイを管理できるようにします。より深い理論的理解のためには、スタンフォードCS231nの転移学習に関する概要のようなリソースが非常に貴重です。