Ultralytics YOLOのような機械学習モデルを特定のタスク用に微調整します。方法、アプリケーション、ベストプラクティスについてはこちらをご覧ください!
ファインチューニングは、機械学習(ML)の中核となる技術であり、大規模で一般的なデータセットで事前に訓練されたモデルを、より小規模で特殊なデータセットでさらに訓練することを含む。転移学習の一種であるこのプロセスは、モデルをゼロから訓練することなく、モデルの学習した知識を特定のタスクに秀でるように適応させる。強力な基礎モデルから始めることで、開発者は大幅に少ないデータと計算リソースで高いパフォーマンスを達成することができる。
このプロセスは、ビジョン用のImageNetや 大規模言語モデル(LLM)用の膨大なテキスト・コーパスのような広範なデータセットで、すでに重みが最適化されたモデルから始まる。この事前に訓練されたモデルは、画像のエッジやテクスチャー、テキストの文法や意味といった一般的な特徴をすでに理解している。その後、ターゲット・アプリケーションに合わせたカスタム・データセット上で、通常より低い学習率を使用して、ファインチューニングによる学習プロセスを継続する。これによりモデルのパラメータが調整され、新しいタスク特有のニュアンスに特化したものになる。PyTorchや TensorFlowのようなフレームワークは、微調整ワークフローを実装するための広範なツールを提供している。
微調整は、コンピュータビジョン(CV)や自然言語処理(NLP)で広く使われている。
ファインチューニングを他のモデル適応技術と区別することは重要である:
Ultralyticsは、カスタムアプリケーション用に最先端のYOLOモデルを微調整するプロセスを簡素化します。ユーザーは、画像分類、検出、またはセグメンテーションのようなタスクのために、事前に訓練された重みをロードし、独自のデータセット上で簡単に訓練を開始することができます。Ultralytics HUBプラットフォームは、このワークフローをさらに合理化し、データセットの管理、モデルのトレーニング、最終的なデプロイメントのための統合ソリューションを提供します。最高のパフォーマンスを得るために、ファインチューニングはしばしば注意深いハイパーパラメータのチューニングと組み合わされます。