Ultralytics YOLOのような機械学習モデルを特定のタスクに合わせて微調整します。手法、応用例、ベストプラクティスはこちらでご確認ください。
ファインチューニングは、大規模な汎用データセットで事前学習されたモデルを、より小規模で特殊なデータセットでさらにトレーニングする、機械学習(ML)における重要な手法です。このプロセスは、転移学習の一形態であり、モデルをゼロからトレーニングすることなく、特定のタスクで優れた成果を上げられるように、モデルが学習した知識を適応させます。強力な基盤モデルから始めることで、開発者は大幅に少ないデータと計算リソースで高いパフォーマンスを達成できます。この概念は、スタンフォードAI研究所などの研究機関でも研究されています。
プロセスは、ビジョンの場合はImageNetのような広範なデータセット、または大規模言語モデル(LLM)の場合は大規模なテキストコーパスで重みがすでに最適化されているモデルから始まります。この事前トレーニング済みのモデルは、画像のエッジやテクスチャ、またはテキストの文法やセマンティクスなど、一般的な特徴をすでに理解しています。次に、ファインチューニングはトレーニングプロセスを継続します。通常、より低い学習率を使用して、ターゲットアプリケーションに合わせて調整されたカスタムデータセットを使用します。これにより、モデルのパラメータが調整され、新しいタスクの特定のニュアンスに特化されます。PyTorchやTensorFlowのようなフレームワークは、ファインチューニングワークフローを実装するための広範なツールを提供します。
ファインチューニングは、コンピュータビジョン(CV)や自然言語処理(NLP)で広く使用されています。
ファインチューニングを他のモデル適応技術と区別することが重要です。
Ultralyticsは、最先端のYOLOモデルをカスタムアプリケーション向けにファインチューニングするプロセスを簡素化します。ユーザーは、事前学習済みの重みを簡単にロードして、画像分類、検出、セグメンテーションなどのタスクのために、独自のデータセットでトレーニングを開始できます。Ultralytics HUBプラットフォームは、データセットの管理、モデルのトレーニング、最終的なデプロイメントのための統合ソリューションを提供し、このワークフローをさらに効率化します。最高のパフォーマンスを得るには、ファインチューニングを慎重なハイパーパラメータ調整と組み合わせることがよくあります。