Yolo 深圳
深セン
今すぐ参加
用語集

パラメータ効率的なファインチューニング(PEFT)

パラメータ効率型微調整(PEFT)を活用し、Ultralytics 大規模モデルの最適化を実現。GPU上で計算コストを削減しつつ最先端(SOTA)の成果を達成する手法を学びましょう。

パラメータ効率型微調整(PEFT)は、機械学習(ML)における高度な最適化戦略であり、大規模な事前学習済みモデルを特定のタスク向けにカスタマイズしつつ、計算コストを最小限に抑えることを可能にする。現代の基盤モデルが数十億のパラメータを包含する規模に成長するにつれ、ネットワーク内の全重みを更新する従来の学習手法は、ハードウェアとエネルギーの面で法外なコストがかかるようになった。 PEFTはこの課題に対処するため、事前学習済みモデルの大部分の重みを凍結し、ごく一部のパラメータのみを更新するか、軽量なアダプタ層を追加する。このアプローチにより参入障壁が低下し、開発者は産業規模のデータセンターを必要とせず、コンシューマー向けGPUで最先端の結果を達成できる。

効率の仕組み

PEFTの中核原理は転移学習に依存しており、モデルは 大規模な公開データセット(例:ImageNet)から学習した特徴表現を活用する ImageNet といった大規模な公開データセットから学習した特徴表現を活用して 新たな問題を解決する手法です。標準的なワークフローでは、モデルの適応には「完全な微調整」が含まれることがあり、 バックプロパゲーション によってニューラルネットワークの全パラメータが調整されます。

PEFT技術(例:LoRA(低ランク適応))は異なるアプローチを取る。モデルの重厚な「バックボーン」を静的に保持し(汎用知識を維持)、特定の層に小さな学習可能行列を注入する。これにより、新情報を学習する過程で元の能力を失う現象である壊滅的忘却を防止する。 PEFTは学習可能パラメータ数を最大99%削減することで、 ストレージ要件を大幅に低減し、単一ベースモデル内で 複数のタスク特化アダプターをリアルタイム推論中に 交換可能にします。

実際のアプリケーション

PEFTは、エッジコンピューティングとデータプライバシーが最優先事項である産業において特に価値が高い。

  • 農業におけるAIアグリテック スタートアップ企業は、バッテリー寿命と処理能力が限られたドローンにモデルを展開することが多い。PEFTを活用すれば、エンジニアはYOLO26のような高効率モデルを微調整し、 小さなカスタムデータセットを用いて、 秋のアオムシなどのdetect 地域害虫detect 。バックボーンを固定することで、 トレーニングはノートパソコンで迅速に実行可能であり、 結果として得られるモデルは機内処理に十分な軽量性を維持する。
  • 医療におけるAI 医療画像解析では、アノテーション付きデータは しばしば不足しており、入手コストも高い。病院ではPEFTを用いて汎用ビジョンモデルを適応させ、 MRIスキャンにおける異常を識別する。基本パラメータが固定されているため、モデルは小規模データセットでの 過学習に陥りにくく、患者のデータプライバシーを保護しつつ 堅牢な診断性能を確保する。

Ultralyticsによるフローズンレイヤーの実装

Ultralytics では、パラメータ効率はネットワークの初期層を「凍結」することで達成されることが多い。これにより、堅牢な特徴抽出器は変更されず、ヘッド層またはそれ以降の層のみが新しいクラスに適応する。これは物体検出におけるPEFT原則の実用的な実装である。

以下の例は、計算リソースを節約するためにバックボーンの最初の10層を凍結しながらYOLO26モデルを訓練する方法を示しています:

from ultralytics import YOLO

# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")

# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

このプロセスを拡張したいチーム向けに、 Ultralytics 、クラウドからデータセットの管理、 アノテーションの自動化、効率的なトレーニング実行の監視を 一元的に行うインターフェースを提供します。

PEFTと関連概念の区別

適切なモデル適応戦略を選択するには、PEFTを類似の用語と区別することが有用である:

  • 微調整 「完全微調整」とも呼ばれるこのプロセスは、モデルの全パラメータを更新する。 最大の柔軟性を提供する一方で、計算コストが高く、各タスクごとにモデルの完全なコピーを保存する必要がある。 PEFTは効率性に焦点を当てた微調整のサブカテゴリである。
  • プロンプトエンジニアリングこれは 内部重みを一切変更せずにモデルの出力結果を誘導するためのテキスト入力を作成する手法である。一方PEFTは、 重みやアダプターのサブセットを数学的に変更し、モデルがデータを処理する方法を恒久的に変える手法である。
  • 知識蒸留 この手法は、大規模な教師モデルを模倣する小規模な生徒モデルを訓練する。効率的なモデルを生成するが、 これは圧縮手法であるのに対し、PEFTは既存モデルに新たなスキルを教えるための適応手法である。

高性能AIへのアクセスを民主化することで、PEFTは開発者がスーパーコンピュータインフラを必要とせずに、 自律走行車や スマート製造向けの専用ツールを構築することを可能にします。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加