LoRAがYOLO ような大規模AIモデルを効率的に微調整し、コストを削減し、最小限のリソースでエッジ展開を可能にする方法をご覧ください。
LoRA(低ランク適応)は、機械学習(ML)の分野における革命的な技術である。 機械学習(ML)の分野における革命的な手法である。 機械学習(ML)分野における画期的な手法である。最新の 基礎モデルのサイズが爆発的に大きくなり 数十億のパラメータを含むこともあり、特定のタスクのためにそれらを再トレーニングすることは、多くの研究者や開発者にとって計算上不可能になってきている。 や開発者にとって計算不可能なものとなっています。LoRAは、オリジナルの モデルの重みを凍結し、より小さく訓練可能な 低ランク行列をアーキテクチャに注入する。このアプローチにより、学習可能なパラメータの数が大幅に削減される、 メモリ要件を低減し、標準的なGPU(グラフィック・プロセッシング・ユニット)のような民生グレードのハードウェアで効果的なモデル適応を可能にする。 GPU (グラフィック・プロセッシング・ユニット)。
LoRAの核となる革新性は、モデルの再トレーニングの必要性を完全に回避する能力にある。従来の 従来のファインチューニングでは、ニューラルネットワークのすべてのウェイトがバックプロパゲーション中に更新される。 バックプロパゲーション中に更新されるため、膨大なオプティマイザの状態を保存する必要がある。しかしLoRAは、事前に訓練された モデルを固定する。ランク分解行列のペアを特定の層に導入する。 アテンション・メカニズム トランスフォーマー・アーキテクチャ
学習過程では、これらの小さなアダプター行列だけが更新される。 だけが更新される。これらの行列は "低ランク "である。 計算オーバーヘッドは最小限である。このコンセプトは 次元削減の原則を借用している、 新しいタスクへの適応は、モデルのパラメータの低次元部分空間に依存すると仮定する。これにより の基礎となる。 パラメータ効率的ファインチューニング(PEFT)の基礎となり、元のチェックポイントの数分の一のサイズでタスクに特化したモデルを作成することができます。
次のPython スニペットは、標準的なトレーニング実行を開始する方法を示しています。
ultralytics パッケージを使用する。このコマンドはデフォルトで完全なトレーニングを行うが、高度なコンフィギュレーションでは、LoRAのようなPEFT技術を活用することができる。
LoRAのようなPEFTテクニックを活用して、特定の
カスタムデータセット.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
LoRAの効率性は、人工知能(AI)のさまざまな領域で新たな可能性を引き出している。 人工知能(AI)。
LoRAを完全に理解するためには、他の適応戦略と区別することが役に立つ:
モデルのカスタマイズへのアクセスを民主化することで、LoRAは開発者に医用画像解析に特化したツールを構築する権限を与える。 医療画像解析 野生動物保護 自律走行車 巨大企業のインフラを必要とすることなく。業界は、近々発表されるUltralytics プラットフォームのような汎用性の高いプラットフォームに向かっています。 プラットフォーム-モデルのサイズとトレーニングコストを切り離す技術は、スケーラブルなAIイノベーションに不可欠であり続けるだろう。