最小限のリソースで大規模なAIモデルを適応させるためのParameter-Efficient Fine-Tuning(PEFT)をご覧ください。コストを節約し、過学習を防ぎ、デプロイメントを最適化します。
PEFT(Parameter-Efficient Fine-Tuning)は、機械学習(ML)における洗練された戦略である。 機械学習(ML)における高度な戦略である、 (PEFT)は、機械学習(ML)における洗練された戦略であり、ネットワーク全体を再トレーニングする計算負荷なしに、事前にトレーニングされたモデルを特定の下流タスクに適応させるために設計されています。PEFTは 自然言語処理や 自然言語処理やコンピュータビジョン(CV)のような領域における基礎モデルは、数十億のパラメータに拡張されてきた。 数十億のパラメータを持つようになった。 モデル内のすべての重みを更新する従来の微調整は、多くのユーザーにとって法外なコストがかかるようになりました。 多くのユーザーにとって法外なコストがかかるようになりました。PEFTは、事前に訓練されたモデルの重みの大部分を凍結し、モデルの重みの更新のみを行うことで、この問題に対処する。 モデルの重みの大部分を凍結し、更新するのはパラメータの小さなサブセットだけである。 パラメータを更新するか、新しい学習可能なレイヤーをいくつか追加するだけである。このアプローチはハードウェアの障壁を大幅に下げ、研究者やエンジニアが最先端のモデルをカスタマイズすることを可能にする。 研究者やエンジニアは、コンシューマーグレードのGPUを使用して最先端のモデルをカスタマイズすることができる。 GPUを使用して最先端のモデルをカスタマイズすることができます。 を維持しながら、最先端のモデルをカスタマイズすることができます。
PEFTの核となるコンセプトは 転移学習である。 膨大なデータセット(ImageNet Common Crawlなど)から得た知識を活用して、限られたデータで新たな問題を解決する。 完全なファインチューニングとは異なり、PEFTはモデル・アーキテクチャや学習プロセスを "パラメータ効率 効率的 "となるようにモデル・アーキテクチャや学習プロセスを変更する。これにより、適応されたモデルのフットプリントは小さくなり、多くの場合、フルモデルに必要なギガバイトに比べ、わずか数メガバイトになります。 ギガバイトである。この効率性は 壊滅的忘却(モデルが元の一般的な能力を失っていく現象)を防ぐために、この効率は極めて重要である。 この現象は、モデルが新しい情報を学習する間に、元の一般的な能力を失ってしまう現象である。
PEFTの傘下にある一般的なテクニックには、以下のようなものがある:
PEFTは、様々な業界において強力なAIツールへのアクセスを民主化することに貢献している。
Ultralytics 文脈では、パラメーターの効率性は、多くの場合、学習中にネットワークのバックボーン層を「凍結」することで達成される。 これにより、特徴抽出層は変化せず、特徴抽出層のみが変化する。これにより、特徴抽出層は変更されず、ヘッド(最終的な予測を担当する部分)だけが更新されます。 ヘッド(最終的な予測を行うモデルの部分)のみが更新される。
次の例では、Ultralytics 使用したパラメータ効率の高いトレーニングの簡単な実装方法を示します。 YOLO 使用して、モデルの最初の10層を凍結することで実装する方法を示します。
from ultralytics import YOLO
# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
PEFTと類似の用語の違いを理解することは、正しい戦略を選択するために不可欠である:
適応の計算コストを最小化することで、PEFTは、自律走行車の知覚に至るまでのタスクに高度に特化したモデルの作成を可能にする。 自律走行車の知覚から 衛星画像の解析 衛星画像の分析に至るまで、高度に特化したモデルを作成することができる、 高度なAIをより多くの開発者が利用できるようになる。