パラメータ効率型微調整(PEFT)を活用し、Ultralytics 大規模モデルの最適化を実現。GPU上で計算コストを削減しつつ最先端(SOTA)の成果を達成する手法を学びましょう。
パラメータ効率型微調整(PEFT)は、機械学習(ML)における高度な最適化戦略であり、大規模な事前学習済みモデルを特定のタスク向けにカスタマイズしつつ、計算コストを最小限に抑えることを可能にする。現代の基盤モデルが数十億のパラメータを包含する規模に成長するにつれ、ネットワーク内の全重みを更新する従来の学習手法は、ハードウェアとエネルギーの面で法外なコストがかかるようになった。 PEFTはこの課題に対処するため、事前学習済みモデルの大部分の重みを凍結し、ごく一部のパラメータのみを更新するか、軽量なアダプタ層を追加する。このアプローチにより参入障壁が低下し、開発者は産業規模のデータセンターを必要とせず、コンシューマー向けGPUで最先端の結果を達成できる。
PEFTの中核原理は転移学習に依存しており、モデルは 大規模な公開データセット(例:ImageNet)から学習した特徴表現を活用する ImageNet といった大規模な公開データセットから学習した特徴表現を活用して 新たな問題を解決する手法です。標準的なワークフローでは、モデルの適応には「完全な微調整」が含まれることがあり、 バックプロパゲーション によってニューラルネットワークの全パラメータが調整されます。
PEFT技術(例:LoRA(低ランク適応))は異なるアプローチを取る。モデルの重厚な「バックボーン」を静的に保持し(汎用知識を維持)、特定の層に小さな学習可能行列を注入する。これにより、新情報を学習する過程で元の能力を失う現象である壊滅的忘却を防止する。 PEFTは学習可能パラメータ数を最大99%削減することで、 ストレージ要件を大幅に低減し、単一ベースモデル内で 複数のタスク特化アダプターをリアルタイム推論中に 交換可能にします。
PEFTは、エッジコンピューティングとデータプライバシーが最優先事項である産業において特に価値が高い。
Ultralytics では、パラメータ効率はネットワークの初期層を「凍結」することで達成されることが多い。これにより、堅牢な特徴抽出器は変更されず、ヘッド層またはそれ以降の層のみが新しいクラスに適応する。これは物体検出におけるPEFT原則の実用的な実装である。
以下の例は、計算リソースを節約するためにバックボーンの最初の10層を凍結しながらYOLO26モデルを訓練する方法を示しています:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
このプロセスを拡張したいチーム向けに、 Ultralytics 、クラウドからデータセットの管理、 アノテーションの自動化、効率的なトレーニング実行の監視を 一元的に行うインターフェースを提供します。
適切なモデル適応戦略を選択するには、PEFTを類似の用語と区別することが有用である:
高性能AIへのアクセスを民主化することで、PEFTは開発者がスーパーコンピュータインフラを必要とせずに、 自律走行車や スマート製造向けの専用ツールを構築することを可能にします。