Yolo 深圳
深セン
今すぐ参加
用語集

Few-Shot Learning(少量サンプル学習)

Few-shot learningが、最小限のデータでAIが適応できるようにし、医療診断や野生生物保護などの分野を変革する様子をご覧ください。

Few-Shot Learning (FSL) is a specialized subfield of machine learning (ML) designed to train models to recognize and classify new concepts using a very small number of labeled examples. In traditional deep learning (DL), achieving high accuracy typically requires massive datasets containing thousands of images per category. However, FSL mimics the human cognitive ability to generalize rapidly from limited experience—much like a child can recognize a giraffe after seeing just one or two pictures in a book. This capability is essential for deploying artificial intelligence (AI) in scenarios where collecting large amounts of training data is prohibitively expensive, time-consuming, or practically impossible.

数撃ちゃ当たる学習の中核メカニズム

FSLの主な目的は、事前知識を活用することで大規模なデータ収集への依存度を低減することである。 モデルはゼロからパターンを学習する代わりに、少数のラベル付き例を含む「サポートセット」を活用して新たなクラスを理解する。これは「学習を学習する」とも呼ばれるメタ学習などの高度な技術によって達成されることが多い。このパラダイムでは、モデルは様々なタスクで訓練され、最適な初期化または更新ルールを学習する。これにより、最小限の調整で新たなタスクに適応できるようになる。

もう1つの一般的なアプローチはメトリックベース学習であり、モデルは埋め込みを用いて入力データをベクトル空間にマッピングすることを学習する。 この空間では、類似した項目は 互いに近接してクラスタリングされ、 非類似な項目は離れて配置される。 プロトタイプネットワークのようなアルゴリズムは、 各クラスに対して平均表現(プロトタイプ)を計算し、 classify クエリサンプルをこれらのプロトタイプへの距離に基づいてclassify 。 これは多くの場合、 より大規模で汎用的なデータセットでの事前学習中に 開発された特徴抽出能力依存している。

実際のアプリケーション

少例学習は、データ不足がAI技術の導入を妨げていた産業を変革しつつある。

医療画像診断

In the field of medical image analysis, obtaining thousands of labeled scans for rare pathologies is often unfeasible. FSL allows researchers to train computer vision (CV) systems to detect rare tumor types or specific genetic anomalies using only a handful of annotated case studies. This capability democratizes access to advanced diagnostic tools, a goal pursued by institutions like Stanford Medicine, helping to identify conditions that would otherwise require specialized human expertise.

工業品質管理

製造業における現代のAIは自動検査に大きく依存している。しかし特定の欠陥は非常に稀にしか発生せず、「不良」部品の大規模なデータセット構築が困難となる。FSLは異常検知システムがわずかな画像から新たな欠陥タイプの特性を学習することを可能にする。これにより工場オペレーターは生産を停止してデータを収集することなく品質保証プロトコルを迅速に更新でき、動的な生産環境における効率を大幅に向上させる。

関連概念の区別

FSLを類似の低データ学習パラダイムと区別することは、その特異的な位置づけを理解する上で有用である:

  • 転移学習FSLは しばしば転移学習の特定の極端な形態として実装される。標準的な転移学習が YOLO26のようなモデルを数百枚の画像で 微調整するのに対し、FSLはクラスごとにわずか5~10枚の画像しか存在しないシナリオ(「N-way K-shot」分類として知られる)を対象とする。
  • ワンショット学習これはFSLの厳密な部分集合であり、モデルは正確に1つのラベル付き例から学習しなければならない。これは顔認証において、保存された単一の写真と照合して身元を確認するために一般的に使用される。
  • ゼロショット学習 FSL(事前学習)が少なくとも少量の視覚的サポートセットを必要とするのとは異なり、 ゼロショット学習は学習中にターゲットクラスの視覚的例を一切必要としません。 代わりに、未見の物体を認識するために意味的記述や属性(テキストプロンプトなど)に依存します。

Ultralytics実践的実装

In practice, one of the most effective ways to perform Few-Shot Learning is to leverage a highly robust pre-trained model. State-of-the-art models like the newer YOLO26 have learned rich feature representations from massive datasets like COCO or ImageNet. By fine-tuning these models on a tiny custom dataset, they can adapt to new tasks with remarkable speed and accuracy.

Python 、小さなデータセットを使用してモデルをトレーニングする方法を示しています。 ultralytics パッケージは、事実上、少数の学習例による適応を実行する:

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (incorporates learned features)
model = YOLO("yolo26n.pt")

# Fine-tune on a tiny dataset (e.g., coco8 has only 4 images per batch)
# This leverages the model's prior knowledge for the new task
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)

# The model adapts to detect objects in the small dataset
print("Few-shot adaptation complete.")

課題と今後の展望

While powerful, FSL faces challenges regarding reliability. If the few provided examples are outliers or noisy, the model's performance can degrade, a problem known as overfitting. Research into data augmentation and synthetic data generation is critical for mitigating these risks. As foundation models become larger and more capable, and tools like the Ultralytics Platform simplify model training and management, the ability to create custom AI solutions with minimal data will become increasingly accessible to developers worldwide.

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加