Glossaire

Apprentissage unique

Découvrez la puissance du One-Shot Learning, une technique d'IA révolutionnaire permettant aux modèles de se généraliser à partir de données minimales pour des applications du monde réel.

Le One-Shot Learning (OSL) est un domaine spécialisé de l'apprentissage automatique (ML) dont l'objectif est de classer de nouveaux exemples sur la base d'une seule instance d'apprentissage pour chaque classe. Cela contraste fortement avec les méthodes traditionnelles d'apprentissage supervisé, qui nécessitent souvent des milliers d'exemples étiquetés par classe pour atteindre une grande précision. L'OSL est particulièrement pertinent dans les scénarios où les données d'apprentissage sont rares, coûteuses ou longues à collecter, ce qui en fait une technique cruciale pour les applications du monde réel où les limitations de données sont courantes.

Comment fonctionne l'apprentissage en une seule fois

Au lieu d'apprendre à faire correspondre directement une entrée à une étiquette de classe à partir de nombreux exemples, les modèles OSL apprennent généralement une fonction de similarité. L'idée de base est de déterminer le degré de similarité entre un nouvel exemple inédit (requête) et l'unique exemple étiqueté disponible (support) pour chaque classe. Si l'exemple de la requête est très similaire à l'exemple de support d'une classe spécifique, l'étiquette de cette classe lui est attribuée. Cela implique souvent l'utilisation d'architectures d'apprentissage profond (DL) telles que les réseaux siamois, qui traitent deux entrées simultanément pour déterminer leur similarité. Ces réseaux sont souvent pré-entraînés sur de grands ensembles de données (comme ImageNet) à l'aide de l'apprentissage par transfert pour apprendre des représentations de caractéristiques robustes avant d'être adaptés à la tâche OSL par des techniques comme l'apprentissage métrique.

Concepts clés de l'apprentissage en une seule fois

  • Ensemble de support : Il contient l'exemple unique étiqueté fourni pour chaque classe à partir de laquelle le modèle doit apprendre.
  • Ensemble d'interrogation : Il contient les exemples non étiquetés que le modèle doit classer sur la base de l'ensemble de support.
  • Apprentissage de la similarité/métrie : Le processus d'apprentissage d'une fonction de distance ou d'une métrique qui mesure la similarité entre les points de données, cruciale pour comparer les exemples de requête aux exemples de support.
  • Formation épisodique : Stratégie de formation courante dans laquelle le modèle est formé sur de nombreuses petites tâches OSL (épisodes) échantillonnées à partir d'un ensemble de données plus large afin de simuler le scénario d'une seule fois au cours de la formation.

Apprentissage unique et paradigmes apparentés

Pour comprendre l'OSL, il faut la distinguer des concepts apparentés :

  • L'apprentissage en quelques coups (FSL): L'OSL est considéré comme une variante extrême du FSL. Alors que l'OSL n'utilise qu'un seul exemple par classe, le FSL utilise un petit nombre (k > 1, typiquement 5 ou 10) d'exemples par classe. Les deux approches tiennent compte de la rareté des données, mais diffèrent par le nombre d'échantillons disponibles. Pour en savoir plus sur ces paradigmes, consultez notre article de blog sur la compréhension de l'apprentissage à quelques coups, de l'apprentissage à zéro coup et de l'apprentissage par transfert.
  • Apprentissage à partir de zéro (ZSL): Le ZSL s'attaque à un problème encore plus difficile : la classification d'instances de classes qui n' ont jamais été vues pendant la formation. Pour ce faire, on exploite généralement des informations auxiliaires, telles que des attributs sémantiques ou des descriptions textuelles, qui relient les classes vues et non vues. L'OSL nécessite de voir un seul exemple ; le ZSL ne nécessite de voir aucun exemple mais a besoin d'un contexte sémantique supplémentaire.
  • Apprentissage par transfert et mise au point: Bien que l'OSL utilise souvent l' apprentissage par transfert (pré-entraînement sur un grand ensemble de données), l'objectif est différent. L'apprentissage par transfert standard ou le réglage fin supposent généralement qu'une quantité raisonnable de données cibles est disponible pour l'adaptation, alors que l'OSL traite spécifiquement de la contrainte d'un seul exemple. Les techniques telles que l'entraînement personnalisé des modèles YOLO d'Ultralytics impliquent souvent un réglage fin des poids pré-entraînés, mais généralement avec plus d'un exemple par classe.

Applications dans le monde réel

L'OSL permet de réaliser diverses applications qui étaient auparavant entravées par des limitations de données :

  1. Reconnaissance faciale: Les systèmes de sécurité ou les appareils personnels peuvent avoir besoin d'identifier ou de vérifier une personne après l'avoir enregistrée à l'aide d'une seule photographie. Le NIST effectue des tests approfondis sur les technologies de reconnaissance faciale, dont beaucoup sont confrontées à des défis similaires à quelques photos ou à une seule photo.
  2. Détection d'objets rares : Dans des domaines tels que le contrôle de la qualité de la fabrication ou la conservation de la faune, l'identification de défauts rares ou d'espèces en voie de disparition n'est possible qu'à partir d'un seul ou de très peu d'exemples antérieurs. Alors que des modèles comme Ultralytics YOLO11 excellent dans la détection d'objets avec un nombre suffisant de données, les techniques OSL pourraient les améliorer pour les classes extrêmement rares.
  3. Vérification de la signature : Authentification de la signature d'une personne sur la base d'une signature de référence unique stockée dans un fichier. La recherche explore l' apprentissage profond pour cette tâche, souvent dans des régimes à faible volume de données.
  4. Découverte de médicaments : Identification de nouveaux médicaments potentiels ou prédiction des propriétés des molécules sur la base de résultats expérimentaux très limités, ce qui accélère le processus de recherche. Des études montrent l' application de l'OSL dans la prédiction des interactions entre médicaments et cibles.

Défis et orientations futures

Le principal défi en matière de LSO est la généralisation : comment un modèle peut-il apprendre de manière fiable l'essence d'une classe à partir d'un seul exemple sans surajustement? Le choix et la qualité de l'exemple de support unique revêtent une importance cruciale. Les recherches en cours se concentrent sur le développement de représentations de caractéristiques plus robustes, de meilleures mesures de similarité et sur l'exploitation de techniques telles que le méta-apprentissage ("apprendre à apprendre") afin d'améliorer les performances de l'OSL. L'intégration des capacités de la LSO dans des modèles de vision polyvalents et des plateformes comme Ultralytics HUB pourrait considérablement élargir leur applicabilité dans des environnements où les données sont limitées. L'évaluation des modèles OSL nécessite un examen minutieux des mesures de performance dans ces conditions difficiles.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers