継続学習がAIに忘却することなく新しいスキルを習得させる方法を学びましょう。主要な戦略を探り、エッジAI向けにUltralytics YOLO26モデルを更新してください。
継続学習 (CL) は、生涯学習とも呼ばれ、人工知能モデルが以前に学習した情報を忘れることなく、新しいタスクを順次学習したり、時間をかけて新しい知識を獲得したりする能力を指します。モデルが静的なデータセットで一度トレーニングされてからデプロイされる従来の機械学習パイプラインとは異なり、継続学習は、新しい環境に適応し、新しい経験から継続的に学習する人間の能力を模倣します。この分野における主な課題は、壊滅的忘却を克服することです。これは、新しいデータでニューラルネットワークをトレーニングすると、古いタスク用に最適化された重みが上書きされるため、古いタスクでのパフォーマンスが劇的に低下する現象です。
動的な実世界環境では、データ分布が静的なままであることは稀です。例えば、自動運転車の視覚認識システムは、初期訓練中に学習した基本的な道路標識を認識する能力を失うことなく、季節の変化、新しい交通規制、または異なる都市のレイアウトに適応する必要があります。累積データセットに対する従来のゼロからの再学習は、ストレージの制約やプライバシーの懸念により、計算コストが高く非現実的であることがよくあります。継続学習は、モデルが段階的に更新できるようにすることでこれらの問題に対処し、リソースが限られているエッジAIアプリケーションにおいて、より効率的でスケーラブルなものにします。
壊滅的忘却を軽減するため、研究者はいくつかの戦略を採用しています。正則化手法は、損失関数に制約を追加し、以前のタスクで特定された重要な重みに大きな変更が加わるのを防ぎます。リプレイ手法は、以前のデータの小さなサブセットを保存(または生成AIを使用して合成サンプルを生成)し、トレーニング中に新しいデータと混ぜ合わせます。最後に、パラメータ分離は、モデルのパラメータの特定のサブセットを異なるタスクに割り当て、新しいタスクの更新が以前のタスク用に最適化されたパラメータと干渉しないようにします。2024年と2025年の最近の進歩は、どの特徴が汎用的で、どの特徴がタスク固有であるかをより良く識別するために、ビジョン言語モデルの使用に焦点を当てています。
継続学習と転移学習を区別することが重要です。転移学習では、事前学習済みモデルが新しい特定のタスクを解決するための出発点として機能し、元のタスクでのパフォーマンスは通常関係ありません。目標はターゲットドメインでのパフォーマンスを最大化することです。対照的に、継続学習の目的は、新しいタスクとすべての以前のタスクの両方で良好なパフォーマンスを発揮することです。同様に、アクティブラーニングがトレーニングのために最も情報量の多いデータポイントを選択することに焦点を当てるのに対し、継続学習は時間の経過とともにモデル自体を更新するプロセスに焦点を当てます。
真の継続学習には特殊なアーキテクチャ調整が必要ですが、ユーザーは、新しいデータと古いデータのバッファを混ぜてモデルをファインチューニングすることで、このワークフローをシミュレートできます。 Ultralytics Platformは、これらのデータセットの管理とモデルのバージョン管理を簡素化します。以下に、Python APIを使用してモデルを更新するアプローチの例を示します。
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
進歩にもかかわらず、継続学習は活発な研究分野であり続けています。新しいことを学習する能力(可塑性)と古いものを保持する能力(安定性)のバランスを取る最適な可塑性-安定性ジレンマを決定することは困難です。さらに、これらのシステムを評価するには、順方向転移(新しいタスクでの学習速度)と逆方向転移(古いタスクへの影響)の両方を考慮した堅牢な性能指標が必要です。基盤モデルが大規模になるにつれて、完全な再学習なしに大規模システムをカスタマイズするために、Low-Rank Adaptation (LoRA)のような効率的な継続適応手法が不可欠になっています。
未来の機械学習で、新たな一歩を踏み出しましょう。