Yolo 深圳
深セン
今すぐ参加
用語集

ファイン・チューニング

Ultralytics YOLO ような機械学習モデルを特定のタスク用に微調整します。方法、アプリケーション、ベストプラクティスについてはこちらをご覧ください!

ファインチューニングとは 機械学習(ML)のテクニックである。 事前に訓練されたモデルを特定のタスクやデータセットに特化させる。むしろ 大量のラベル付きデータと計算能力を必要とするゼロからの学習よりも、ファインチューニングは、膨大な一般データセットからパターンを学習済みのモデルの既存の知識を活用する。 ファインチューニングは、膨大で一般的なデータセットからすでにパターンを学習したモデルの既存の知識を活用する。このプロセスは このプロセスは、転移学習の実用的な応用である。 開発者は、希少な製造欠陥の検出や医療画像の分類など、ニッチな問題で高い性能を達成することができる。 医療画像の分類といったニッチな問題で、開発者は大幅にリソースを削減しながら高い性能を達成することができる。

ファインチューニングはどのように機能しますか?

このプロセスは、次のような基礎モデルから始まる。 ビジョンモデル ImageNetで訓練された視覚モデルや インターネット・コーパスで訓練された言語モデルなどである。これらのモデルは、画像のエッジ、テクスチャ、形状、あるいはテキストの文法や意味といった基本的な特徴 のような基本的な特徴や、テキストにおける文法や意味論に対するロバストな理解を持っている。ファインチューニングの間、モデルはターゲット・アプリケーションに関連する、新しい、より小さな カスタムデータセットにさらされる。

トレーニング・プロセスでは 新しいデータのニュアンスに対応するために、モデルの重みをわずかに調整する。 を調整する。一般的に、これは 学習率を下げて行うのが一般的である。 最初の事前学習段階で学習された貴重な特徴を維持しつつ、モデルの適応を可能にするためである。多くの 多くのコンピュータビジョン(CV)ワークフローでは、エンジニアは 基本的な特徴をdetect するバックボーンの初期レイヤーを凍結し のみを微調整する。 最終的な予測を行う検出ヘッド 予測。

Ultralytics YOLO微調整

のような最先端のモデルを採用する。 Ultralytics YOLO11のような最先端のモデルを 特定のデータに適応させるのは簡単です。このライブラリーは、事前に学習された重みのロードや学習ループの設定といった複雑な処理を自動的に行います。 を自動的に処理します。

次の例は、事前にトレーニングされたYOLO11 モデルをロードし、サンプル・データセット上で微調整する方法を示しています。

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (uses COCO weights by default)
model = YOLO("yolo11n.pt")

# Fine-tune the model on a specific dataset configuration
# 'epochs' sets the training duration, and 'imgsz' defines input resolution
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)

実際のアプリケーション

ファインチューニングは、一般的なAIの能力と業界特有の要件とのギャップを埋める。

  • ヘルスケアにおけるAI一般 視覚モデルは、車や猫のような日常的な物体を識別することができる。しかし、これらのモデルを注釈付きの 医療画像解析データセット レントゲンやMRIスキャンなど、注釈付きの医療画像分析データセットでこれらのモデルを微調整することで、医師は肺炎や脳腫瘍のような特定の状態を高い精度でdetect するための専門ツールを作成することができる。 のような特定の疾患を高い精度で検出するための特別なツールを作ることができる。
  • 工業生産 生産ラインでは、標準モデルでは独自の部品や微妙な欠陥を認識できないことがあります。特定の組立ラインの画像で 品質管理を自動化することができます。 品質管理 を自動化し、マイクロクラックやミスアライメントのような欠陥を発見し、効率を大幅に改善することができます。

ファインチューニングと関連概念

ファインチューニングを他の適応方法と区別することは、適切なアプローチを選択する上で極めて重要である:

  • 特徴抽出このアプローチでは このアプローチでは、事前に訓練されたモデルは固定された特徴抽出器として扱われる。重みは完全に凍結され 単純な分類器(例えば 線形回帰モデルのような)単純な分類器だけが、出力の上で学習される。 を学習する。微調整は、モデルの内部パラメータを更新することでさらに一歩進みます。
  • パラメータ効率的ファインチューニング(PEFT) 標準的なファインチューニングでは、すべての、あるいはほとんどのモデルパラメータが更新されますが、PEFTの手法は次のようなものです。 LoRA (Low-Rank Adaptation)のようなPEFT手法は、パラメータの一部のみを更新する。 パラメータの一部のみを更新する。これにより、特に大規模なLLM(Large Language Models:大規模言語モデル)の場合、処理が大幅に高速化され、メモリ消費量も少なくなります。 大規模言語モデル(LLM)
  • プロンプトエンジニアリングこれは これは、フローズンモデルの内部重みを変更したり、新しいデータをトレーニングしたりすることなく、フローズンモデルの出力を導くために特定の入力(プロンプト)を作成することである。 を変更することなく、新しいデータでトレーニングすることです。

ツールとフレームワーク

微調整を実装するために、開発者は次のような堅牢なフレームワークに頼っている。 PyTorchTensorFlowのような堅牢なフレームワークに依存している。 勾配降下とバックプロパゲーションに必要なインフラを提供する。最新の 例えば、Ultralytics エコシステムでは、モデルの学習と検証をシームレスに行うことができる。 例えば、Ultralyticsエコシステムは、シームレスなモデルのトレーニングと検証を可能にする。データを 微調整のためにデータを準備する場合、質の高い データアノテーションの確保は データセットのバイアスを防ぐことが不可欠である。 を歪めてしまう可能性があります。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加