コントラスティブ学習の力を発見しましょう。これは、最小限のラベル付きデータで、堅牢なデータ表現を実現する自己教師あり学習の手法です。
対照学習は 機械学習(ML)の強力な手法である。 モデルは、手作業によるラベル付けを必要とせずに、データのロバストな表現を学習することができる。ニューラルネットワークに ニューラルネットワークに類似点と非類似点を このアプローチにより、アルゴリズムはデータセットの根本的な構造を理解することができる。代わりに 特定のカテゴリーを直接予測する代わりに、モデルは例のペアを比較することで学習し、関連する項目の表現を引き出します。 正ペアとして知られる関連する項目の表現を、埋め込み空間においてより近づける。 一方、無関係なもの-負のペア-はより遠くに押しやられる。 をより遠ざける。この機能によって 自己教師付き学習 開発者は膨大な量のラベルなしデータを活用することができる。
コントラスト学習の中核となるメカニズムは、インスタンス識別の概念を中心に展開される。学習 学習プロセスには、一般的に3つの重要なコンポーネントが含まれる。 関数である。
対照的な方法によって学習された表現は、下流のタスクに非常に移行しやすい。
対照学習と他のパラダイムの違いを理解することは、適切なアプローチを選択するのに役立つ。 に役立つ。
完全な対比ループのトレーニングには膨大な計算が必要だが、同様の事前トレーニング技術によってロバストな特徴を学習したモデルを活用することができる。 を活用することができる。次の例は、事前に学習された 画像分類モデルをロードして これは、トレーニング中に最適化された基本的な特徴抽出機能を利用します。
from ultralytics import YOLO
# Load a pre-trained YOLO11 classification model
# The backbone of this model has learned to extract powerful features
model = YOLO("yolo11n-cls.pt")
# Run inference on a sample image
# This process utilizes the learned feature embeddings to predict the class
results = model("https://ultralytics.com/images/bus.jpg")
# Display the top predicted class names
print(results[0].names[results[0].probs.top1])
その成功にもかかわらず、対照学習には課題がある。ネガティブ・ペアを注意深く選ぶ必要がある。 否定的なサンプルが区別しやすすぎると、モデルは効果的な学習をやめてしまう。次のような方法がある。 MoCo(モメンタム・コントラスト)のような方法は、大量の否定サンプルを効率的に扱うためにメモリバンクを導入した。 MoCo(モメンタムコントラスト)のような方法は、大量の負サンプルを効率的に扱うためにメモリバンクを導入した。さらに、学習には多くの場合、高性能GPUなどの計算リソースが必要となる、 を必要とする。研究が進むにつれ Ultralytics 、YOLO26のような次期モデルの研究開発において、これらの技術の探求を続けています。 YOLO26のような次期モデルの研究開発において、これらの技術の探求を続けています。 より高速で、より小型で、より正確な検知システムを提供することを目指しています。