Few-shot learningが、最小限のデータでAIが適応できるようにし、医療診断や野生生物保護などの分野を変革する様子をご覧ください。
Few-Shot Learning (FSL) is a specialized subfield of machine learning (ML) designed to train models to recognize and classify new concepts using a very small number of labeled examples. In traditional deep learning (DL), achieving high accuracy typically requires massive datasets containing thousands of images per category. However, FSL mimics the human cognitive ability to generalize rapidly from limited experience—much like a child can recognize a giraffe after seeing just one or two pictures in a book. This capability is essential for deploying artificial intelligence (AI) in scenarios where collecting large amounts of training data is prohibitively expensive, time-consuming, or practically impossible.
FSLの主な目的は、事前知識を活用することで大規模なデータ収集への依存度を低減することである。 モデルはゼロからパターンを学習する代わりに、少数のラベル付き例を含む「サポートセット」を活用して新たなクラスを理解する。これは「学習を学習する」とも呼ばれるメタ学習などの高度な技術によって達成されることが多い。このパラダイムでは、モデルは様々なタスクで訓練され、最適な初期化または更新ルールを学習する。これにより、最小限の調整で新たなタスクに適応できるようになる。
もう1つの一般的なアプローチはメトリックベース学習であり、モデルは埋め込みを用いて入力データをベクトル空間にマッピングすることを学習する。 この空間では、類似した項目は 互いに近接してクラスタリングされ、 非類似な項目は離れて配置される。 プロトタイプネットワークのようなアルゴリズムは、 各クラスに対して平均表現(プロトタイプ)を計算し、 classify クエリサンプルをこれらのプロトタイプへの距離に基づいてclassify 。 これは多くの場合、 より大規模で汎用的なデータセットでの事前学習中に 開発された特徴抽出能力に依存している。
少例学習は、データ不足がAI技術の導入を妨げていた産業を変革しつつある。
In the field of medical image analysis, obtaining thousands of labeled scans for rare pathologies is often unfeasible. FSL allows researchers to train computer vision (CV) systems to detect rare tumor types or specific genetic anomalies using only a handful of annotated case studies. This capability democratizes access to advanced diagnostic tools, a goal pursued by institutions like Stanford Medicine, helping to identify conditions that would otherwise require specialized human expertise.
製造業における現代のAIは自動検査に大きく依存している。しかし特定の欠陥は非常に稀にしか発生せず、「不良」部品の大規模なデータセット構築が困難となる。FSLは異常検知システムがわずかな画像から新たな欠陥タイプの特性を学習することを可能にする。これにより工場オペレーターは生産を停止してデータを収集することなく品質保証プロトコルを迅速に更新でき、動的な生産環境における効率を大幅に向上させる。
FSLを類似の低データ学習パラダイムと区別することは、その特異的な位置づけを理解する上で有用である:
In practice, one of the most effective ways to perform Few-Shot Learning is to leverage a highly robust pre-trained model. State-of-the-art models like the newer YOLO26 have learned rich feature representations from massive datasets like COCO or ImageNet. By fine-tuning these models on a tiny custom dataset, they can adapt to new tasks with remarkable speed and accuracy.
Python 、小さなデータセットを使用してモデルをトレーニングする方法を示しています。
ultralytics パッケージは、事実上、少数の学習例による適応を実行する:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (incorporates learned features)
model = YOLO("yolo26n.pt")
# Fine-tune on a tiny dataset (e.g., coco8 has only 4 images per batch)
# This leverages the model's prior knowledge for the new task
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)
# The model adapts to detect objects in the small dataset
print("Few-shot adaptation complete.")
While powerful, FSL faces challenges regarding reliability. If the few provided examples are outliers or noisy, the model's performance can degrade, a problem known as overfitting. Research into data augmentation and synthetic data generation is critical for mitigating these risks. As foundation models become larger and more capable, and tools like the Ultralytics Platform simplify model training and management, the ability to create custom AI solutions with minimal data will become increasingly accessible to developers worldwide.