Yolo 深圳
深セン
今すぐ参加
用語集

継続的な学習

継続的な学習がAIに新しいスキルを習得させ、既存のスキルを忘れないようにする仕組みを学びましょう。主要な戦略を探求し、Ultralytics を更新してください。

継続学習(CL)は、しばしば生涯学習とも呼ばれ、人工知能モデルが過去に学習した情報を忘れることなく、時間をかけて新しいタスクを順次学習したり新たな知識を獲得したりする能力を指す。従来の機械学習パイプラインでは、モデルは静的なデータセットで一度訓練された後、そのまま展開されるが、継続学習は人間が新しい環境に適応し、新たな経験から継続的に学習する能力を模倣する。 この分野における主な課題は、壊滅的忘却(catastrophic forgetting)の克服である。これは、ニューラルネットワークを新しいデータで訓練すると、古いタスク向けに最適化された重みが上書きされるため、古いタスクでの性能が劇的に低下する現象を指す。

継続的な学習が重要な理由

動的な実世界環境では、データ分布が静的状態を維持することは稀である。例えば自律走行車の視覚認識システムは、初期訓練で学習した基本道路標識の認識能力を損なうことなく、季節の変化、新たな交通規制、異なる都市レイアウトに適応しなければならない。従来の累積データセットを用いた一から再学習は、ストレージ制約やプライバシー懸念により、計算コストが高く非現実的であることが多い。 継続的学習は、モデルが段階的に更新されることを可能にすることでこれらの課題に対処し、リソースが限られているエッジAIアプリケーションにおいて、より効率的でスケーラブルなものを実現します。

実際のアプリケーション

  • ロボティクスと自律システム:非構造化環境に展開されるロボットは、未知の物体を操作したり新たな地形を移動したりする必要がある。継続的な学習を通じて、ロボットは特定の製造タスクを習得し、その後システムを完全にリセットすることなく異なる製品ラインの処理を学習できる。これにより、柔軟なインダストリー4.0のイノベーションパイプラインを効果的に支援する。
  • 医療画像診断:新たな疾患の出現や画像検査プロトコルの変更に伴い、医療データは進化する。放射線科医を支援するAIシステムは、継続的な学習を通じて新たな病態(例えばX線画像で確認される新型ウイルス株など)を組み込みつつ、肺炎や骨折といった一般的な病態の検出精度を高く維持できる。この能力は、確立されたプロトコルにおける患者の安全性を損なうことなく、最新の医療診断を維持するために不可欠である。

継続的学習における主要戦略

壊滅的な忘却を軽減するため、研究者はいくつかの戦略を採用している。 正則化手法は 損失関数に制約を加え、 過去のタスクで特定された重要な重みに 大幅な変化が生じるのを防ぐ。 再学習手法は過去のデータの小さなサブセットを保存し (または生成AIを用いて合成サンプルを生成し)、 それらを学習中に新しいデータと混合する。 最後に、パラメータ分離ではモデルの特定パラメータ群を異なるタスクに割り当て、新規タスクの更新が過去の最適化パラメータに影響を与えないようにする。2024年と2025年の最新研究では、汎用的な特徴とタスク固有の特徴をより正確に識別するため、ビジョン言語モデルの活用に焦点が当てられている。

継続的学習 vs. 転移学習

継続学習と転移学習を区別することが重要です。転移学習では、事前学習済みモデルが新たな特定タスクを解決するための出発点として機能し、元のタスクにおける性能は通常無関係です。 目標は対象領域での性能を最大化することである。これに対し、継続学習の目的は新たな課題と過去の全課題の両方で良好な性能を発揮することにある。同様に、能動的学習が訓練用にラベル付けする最も有益なデータポイントの選択に焦点を当てるのに対し、継続学習は時間の経過に伴うモデル自体の更新プロセスに焦点を当てる。

YOLO アップデート

真の継続的学習には専用のアーキテクチャ調整が必要ですが、ユーザーは古いデータのバッファと新しいデータを混合してモデルを微調整することで、このワークフローをシミュレートできます。Ultralytics 、こうしたデータセットの管理とモデルのバージョン管理を簡素化します。以下はPython を使用してモデルを更新する一例です:

from ultralytics import YOLO

# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")

# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
    data="dataset_v2_combined.yaml",
    epochs=50,
    imgsz=640,
    lr0=0.001,  # Lower learning rate for fine-tuning
)

課題と今後の方向性

進歩はあるものの、継続的な学習は依然として活発な研究領域である。最適な可塑性と安定性のジレンマ——新しいことを学ぶ能力(可塑性)と古いことを保持する能力(安定性)のバランス——を決定することは困難である。 さらに、これらのシステムを評価するには、 前方転移(新規タスクでの学習速度)と後方転移(既存タスクへの影響)の両方を考慮した 堅牢な性能指標が必要である。基盤モデルが巨大化するにつれ、 大規模システムを完全な再学習なしにカスタマイズするためには、 低ランク適応(LoRA)のような効率的な継続的適応手法が不可欠となっている。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加