Yolo 深圳
深セン
今すぐ参加
用語集

自己教師あり学習

教師なし学習が、ラベルなしデータを活用して効率的な学習を実現し、コンピュータビジョン、自然言語処理(NLP)などのAIをどのように変革するかをご覧ください。

自己教師あり学習(SSL)は、以下の分野における革新的なアプローチである。 人工知能 (AI) 人工知能(AI)分野における革新的なアプローチであり、システムがラベル付けされていないデータから学習することを可能にする。従来の 教師あり学習従来の教師あり学習とは異なり、SSLはデータそのものから直接、教師信号 をデータそのものから直接導き出す。文中の欠落した単語を補う、あるいは画像の回転を予測するといった「前文タスク」を作成し、それを解くことで、SSLはデータそのものから直接監督信号を導き出す。 このモデルは、基本的な構造、文脈、および入力の特徴を理解するように学習する。 を理解することを学習する。この能力は、ロバストな 基礎モデルこの能力は この機能は、最小限の追加トレーニングで幅広いダウンストリームタスクに適応できるロバストなファウンデーションモデルを開発するために非常に重要です。

自己教師あり学習はどのように機能するか

SSLの中核となるメカニズムには、利用可能なデータの一部を削除し、そのデータに対して ニューラルネットワーク(NN)に 再構築する。このプロセスにより、モデルは高品質な表現、すなわち 埋め込みを学習させる。研究や産業で使用されるプレテキストタスクには、主に2つのカテゴリーがある:

  • 生成法:破損したデータやマスクされたデータを修復するモデル。例えば 自然言語処理(NLP)例えば自然言語処理(NLP)では、BERTのようなモデルは特定の単語をマスクし、周囲の文脈に基づいてその単語を予測しようとする。視覚では のような技術がある。 マスクオートエンコーダー(MAE)画像から 画像からパッチを除去し、欠落したピクセルを再構成する。
  • 対照学習:このアプローチは、モデルに類似点と非類似点を区別することを教える。 を学習する。以下のようなアルゴリズムがある。 SimCLRのようなアルゴリズムは データ増強(トリミング、 SimCLRは、画像にデータ補強(切り抜き、カラー・ジッタリング)を適用し、これらの変更されたバージョンが同じ物体を表していることを認識するようにネットワークを訓練する。 一方、異なる画像の表現は押しのける。

実際のアプリケーション

教師あり学習は、膨大で未加工のデータセットの価値を解き放つことで、業界に革命をもたらした。以下はその具体例である。 そのインパクトを示す2つの具体例を紹介しよう:

  1. 医療画像解析 ラベリングされた医療データを入手するのは高価で、専門の放射線科医を必要とする。SSLでは、ラベル付けされていない何千枚ものX線やMRIスキャン画像 一般的な解剖学的特徴を学習します。この事前学習により のような特定のタスクのために、小規模のラベル付きデータセットでモデルを微調整する際のパフォーマンスを大幅に向上させます。 腫瘍検出限られた監視下で診断精度を向上させる。
  2. 自律走行車 自動運転車は毎日テラバイトのビデオデータを生成する。すべてのフレームにラベルを付けることは不可能です。SSLは システムは時間的ダイナミクスを学習し 深度推定を学習することができます。 を学習することができます。これにより オブジェクト追跡と 環境理解の向上に役立ちます。

SSLと関連概念との区別

SSLを完全に理解するためには、類似の学習パラダイムと区別することが役に立つ:

  • 対教師なし学習:どちらもラベル付けされていないデータを利用する、 教師なし学習 は通常、顧客のクラスタリングや次元削減など、隠れたパターンを見つけることに重点を置く。SSL SSLは特に、他のタスクに移行可能な表現を学習することを目的としており、事実上、教師あり学習と同じような振る舞いをする。 教師あり学習と同じように振る舞う。
  • 対半教師あり学習: 半教師付き学習 半教師付き学習は、少量のラベル付きデータと大量のラベルなしデータを同じ学習段階で組み合わせる。これに対して 対照的に、SSLはラベルのないデータを純粋に使用する「事前学習」段階として使用されることが多い。 微調整を行う。

事前に訓練されたモデルの活用

実際には、ほとんどの開発者は モデルウェイト利用する。 を利用する。例えば Ultralytics YOLO11アーキテクチャは は、広範なトレーニングによって磨き上げられた深い特徴抽出能力を備えています。YOLO 教師ありですが を理解したモデルを新しいタスクに適用することである。 SSL研究の下流の利点である。

次のPython 例は、事前に訓練されたモデルをロードし、特定のデータセット上で微調整する方法を示しています。このワークフローは このワークフローは、最初の事前学習フェーズで学習された特徴表現に依存しています。

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (weights act as the learned representation)
model = YOLO("yolo11n.pt")

# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)

自己教師あり学習の未来

研究者たちが、丸暗記ではなく観察を通して、より人間のように学習するモデルの開発を推し進める中、SSLは革新の最前線にいる。 は依然として技術革新の最前線にいる。以下のような主要な研究所がある。 Google メタAIなどが、ラベル付きデータへの依存度を下げる画期的な技術を発表し続けています。Ultralytics、これらの進歩を の研究開発に組み込んでいます。 YOLO26の研究開発に統合し、より高速で、より小さく、より正確なモデルを提供することを目指しています。 コンピュータ・ビジョン(CV)のようなツールです。 以下のようなツール PyTorchやUltralytics Platformのようなツールは のようなツールは、これらの高度な機能を実際の生産環境に導入することをかつてないほど容易にしています。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加