Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Apprentissage « Few-Shot »

Découvrez comment l'apprentissage « few-shot » permet à l'IA de s'adapter avec un minimum de données, transformant des domaines tels que le diagnostic médical et la conservation de la faune.

Few-Shot Learning (FSL) is a specialized subfield of machine learning (ML) designed to train models to recognize and classify new concepts using a very small number of labeled examples. In traditional deep learning (DL), achieving high accuracy typically requires massive datasets containing thousands of images per category. However, FSL mimics the human cognitive ability to generalize rapidly from limited experience—much like a child can recognize a giraffe after seeing just one or two pictures in a book. This capability is essential for deploying artificial intelligence (AI) in scenarios where collecting large amounts of training data is prohibitively expensive, time-consuming, or practically impossible.

Mécanismes fondamentaux de l'apprentissage à court terme

L'objectif principal du FSL est de réduire la dépendance à une collecte de données extensive en tirant parti des connaissances antérieures. Au lieu d'apprendre des modèles à partir de zéro, le modèle utilise un « ensemble de soutien » contenant quelques exemples étiquetés pour comprendre de nouvelles classes. Cela est souvent réalisé grâce à des techniques avancées telles que le méta-apprentissage, également appelé « apprendre à apprendre ». Dans ce paradigme, le modèle est formé à diverses tâches afin d'apprendre une règle d'initialisation ou de mise à jour optimale, ce qui lui permet de s'adapter à de nouvelles tâches avec un minimum d'ajustements.

Une autre approche courante consiste à utiliser l'apprentissage basé sur des métriques, où le modèle apprend à mapper les données d'entrée dans un espace vectoriel à l'aide d'imbrications. Dans cet espace, les éléments similaires sont regroupés tandis que les éléments dissemblables sont écartés. Des algorithmes tels que les réseaux prototypiques calculent une représentation moyenne, ou prototype, pour chaque classe et classify les classify échantillons de requêtes en fonction de leur distance par rapport à ces prototypes. Cela repose souvent sur des capacités d'extraction de caractéristiques développées lors d'un pré-entraînement sur des ensembles de données généraux plus importants.

Applications concrètes

L'apprentissage en quelques essais transforme les secteurs où la rareté des données empêchait auparavant l'adoption des technologies d'IA.

Imagerie médicale et diagnostics

In the field of medical image analysis, obtaining thousands of labeled scans for rare pathologies is often unfeasible. FSL allows researchers to train computer vision (CV) systems to detect rare tumor types or specific genetic anomalies using only a handful of annotated case studies. This capability democratizes access to advanced diagnostic tools, a goal pursued by institutions like Stanford Medicine, helping to identify conditions that would otherwise require specialized human expertise.

Contrôle qualité industriel

L'IA moderne dans le secteur manufacturier repose largement sur l' inspection automatisée. Cependant, certains défauts spécifiques peuvent se produire très rarement, ce qui rend difficile la constitution d'un vaste ensemble de données sur les pièces « défectueuses ». FSL permet aux systèmes de détection des anomalies d'apprendre les caractéristiques d'un nouveau type de défaut à partir de quelques images seulement. Cela permet aux opérateurs d'usine de mettre rapidement à jour leurs protocoles d'assurance qualité sans arrêter la production pour collecter des données, ce qui améliore considérablement l'efficacité dans les environnements de production dynamiques .

Distinguer les concepts apparentés

Il est utile de différencier le FSL des paradigmes d'apprentissage à faible volume de données similaires afin de comprendre son créneau spécifique :

  • Apprentissage par transfert: le FSL est souvent mis en œuvre sous la forme spécifique et extrême de l'apprentissage par transfert. Alors que l'apprentissage par transfert standard peut affiner un modèle tel que YOLO26 sur des centaines d'images, le FSL cible des scénarios avec peut-être seulement 5 à 10 images par classe (ce que l'on appelle la classification « N-way K-shot »).
  • Apprentissage en un seul essai: il s'agit d'un sous-ensemble strict du FSL où le modèle doit apprendre à partir d'un seul exemple étiqueté. Il est couramment utilisé dans la reconnaissance faciale pour vérifier l'identité à partir d'une seule photo stockée.
  • Apprentissage sans exemple (Zero-Shot Learning): contrairement au FSL, qui nécessite au moins un petit ensemble de supports visuels, l'apprentissage sans exemple ne nécessite aucun exemple visuel de la classe cible pendant la formation. Il s'appuie plutôt sur des descriptions sémantiques ou des attributs (tels que des invites textuelles) pour reconnaître des objets inconnus.

Mise en œuvre pratique avec Ultralytics

In practice, one of the most effective ways to perform Few-Shot Learning is to leverage a highly robust pre-trained model. State-of-the-art models like the newer YOLO26 have learned rich feature representations from massive datasets like COCO or ImageNet. By fine-tuning these models on a tiny custom dataset, they can adapt to new tasks with remarkable speed and accuracy.

Python suivant montre comment entraîner un modèle sur un petit ensemble de données à l'aide de la fonction ultralytics paquet, effectuant efficacement une adaptation en quelques essais :

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (incorporates learned features)
model = YOLO("yolo26n.pt")

# Fine-tune on a tiny dataset (e.g., coco8 has only 4 images per batch)
# This leverages the model's prior knowledge for the new task
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)

# The model adapts to detect objects in the small dataset
print("Few-shot adaptation complete.")

Défis et perspectives d'avenir

While powerful, FSL faces challenges regarding reliability. If the few provided examples are outliers or noisy, the model's performance can degrade, a problem known as overfitting. Research into data augmentation and synthetic data generation is critical for mitigating these risks. As foundation models become larger and more capable, and tools like the Ultralytics Platform simplify model training and management, the ability to create custom AI solutions with minimal data will become increasingly accessible to developers worldwide.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant