YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

自己教師あり学習

自己教師あり学習が手動ラベリングの必要性をどのように排除するかを探ります。Ultralytics YOLO26を強化するための生成的および対照的SSL手法について学びましょう。

自己教師あり学習 (SSL) は、外部の人間が提供するラベルに依存するのではなく、データ自体から教師信号を生成することで、システムがデータを理解することを学習する機械学習パラダイムです。従来の教師あり学習では、モデルは「猫」や「犬」とラベル付けされた画像のような、手動でアノテーションされた膨大な量のデータを必要としますが、これは生成に費用と時間がかかります。SSLは、モデルが入力データの隠された部分や欠落した部分を予測しなければならない「プレテキストタスク」を作成することで、このボトルネックを回避し、物体 detectや分類のような複雑なタスクに必要な基礎となる構造と特徴を効果的に自己学習させます。

自己教師あり学習の主要なメカニズム

SSLの根底にある考え方は、データの一部をマスクまたは隠し、ニューラルネットワーク (NN)にそれを再構築させたり、同じデータの異なるビュー間の関係を予測させたりすることです。このプロセスにより、後で特定のダウンストリームアプリケーション向けにファインチューニングできる、豊富で汎用的な表現が作成されます。

SSLには主に2つのアプローチがあります。

  • 生成的手法: モデルは空白を埋めるためにピクセルや単語を生成することを学習します。自然言語処理 (NLP)における古典的な例は、文中の次の単語を予測することです。コンピュータビジョンでは、Masked Autoencoders (MAE)のような技術が画像のランダムなパッチを隠し、モデルに欠落したピクセルを再構築するタスクを与え、視覚的コンテキストを「理解」することを強制します。
  • 対照学習: この対照学習手法は、モデルに類似したデータポイントと非類似のデータポイントを区別するように教えます。画像にクロッピング、色ジッター、回転などのdata augmentation技術を適用することで、モデルはこれらの変更されたバージョンが同じオブジェクト(ポジティブペア)を表すことを学習し、他の画像を異なるオブジェクト(ネガティブペア)として扱います。SimCLRのような人気のあるフレームワークは、この原則に大きく依存しています。

実際のアプリケーション

自己教師あり学習は、さまざまなドメインで強力な基盤モデルを構築するための基礎となっています。膨大な量のラベルなしデータを活用できるその能力は、高いスケーラビリティをもたらします。

  • 医療画像: 専門家がラベル付けした医療スキャンを入手することは困難で費用がかかります。SSLは、モデルが数千枚のラベルなしX線またはMRIスキャンで事前学習し、一般的な解剖学的特徴を学習することを可能にします。この事前学習済みモデルは、少数のラベル付きサンプルでファインチューニングすることで、腫瘍detectや疾患診断において高い精度を達成できます。
  • 自動運転: 自動運転車は毎日テラバイト規模の動画データを生成します。SSLにより、これらのシステムはフレームごとのアノテーションなしに、生の動画映像から時間的ダイナミクスと空間的理解を学習できます。これにより、将来のフレームやオブジェクトの動きを予測することで、車線検出と障害物回避の改善に役立ちます。

関連用語とSSLの区別

SSLを教師なし学習と区別することが重要です。どちらの手法もラベルなしデータを利用しますが、教師なし学習は通常、特定の予測タスクなしで隠れたパターンやグループ(クラスタリング)を見つけることに焦点を当てます。一方、SSLは、ラベルがデータ構造自体から自動的に生成される教師ありタスクとして学習プロセスを捉えます。さらに、半教師あり学習は少量のラベル付きデータと大量のラベルなしデータを組み合わせるのに対し、純粋なSSLはファインチューニングが行われる前に、ラベルなしデータセットから完全に独自のラベルを作成します。

Ultralyticsで事前学習済み重みを活用する

Ultralyticsエコシステムでは、 YOLO26のようなモデルは、ImageNetCOCOのような大規模データセットでの事前学習フェーズ中に、SSLに類似した原則を組み込む高度なトレーニング戦略から大きな恩恵を受けています。これにより、ユーザーが特定のタスクのためにモデルをデプロイする際に、特徴抽出器がすでに堅牢であることが保証されます。

ユーザーはこれらの強力な事前学習済み表現を活用して、Ultralytics Platformを使用し、独自のカスタムデータセットでモデルをファインチューニングできます。

事前学習済みYOLO26モデルをロードし、最初のL大規模トレーニング中に学習された特徴を活用して、新しいデータセットでファインチューニングを開始する方法の簡潔な例です。

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")

# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

SSLの未来

Meta AIGoogle DeepMindのような主要な研究所の研究者がこれらの技術を洗練し続けるにつれて、SSLは生成AIとコンピュータービジョンにおける可能性の限界を押し広げています。ラベル付きデータへの依存を減らすことで、SSLは高性能AIへのアクセスを民主化し、小規模なチームでも野生生物保護産業検査のようなニッチなアプリケーション向けに洗練されたモデルを構築できるようになります。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。