Découvrez comment l'adaptation de domaine non supervisée (UDA) comble les lacunes en matière de données grâce à des données non étiquetées. Apprenez à optimiser les modèles Ultralytics en vue d'un déploiement en conditions réelles.
L'adaptation de domaine non supervisée (UDA) est un sous-domaine spécialisé de l' apprentissage par transfert, conçu pour combler l' écart de performance entre deux distributions de données distinctes mais apparentées. Dans les scénarios concrets d'apprentissage automatique, un modèle est généralement entraîné sur un ensemble de données « source » abondamment annoté. Cependant, lorsqu'il est déployé en production, il se heurte souvent à un domaine « cible » qui présente des différences visuelles — telles que des conditions d'éclairage variables, des ou des conditions météorologiques changeantes. Comme détaillé dans la présentation de l'adaptation de domaine sur Wikipédia, les techniques d'UDA visent à adapter un modèle pré-entraîné à ce nouveau domaine cible en utilisant uniquement des données non étiquetées, atténuant ainsi efficacement les baisses de performance causées par la dérive des données sans entraîner de coûts de réétiquetage massifs.
Pour bien comprendre l'UDA, il faut le distinguer des autres paradigmes d'apprentissage en vision par ordinateur. Alors que les principesfondamentaux de l'apprentissage par transfert abordés dans PyTorch permettent généralement d'appliquer les connaissances acquises lors d'une tâche à une autre, l'UDA s'applique spécifiquement aux cas où le domaine cible ne dispose d' aucune étiquette de référence. En revanche, l'apprentissage semi-supervisé part du principe qu'une petite partie de l' ensemble de données cible est étiquetée. En s'appuyant entièrement sur des données cibles non étiquetées, l'UDA est essentiel pour adapter les modèles à de nouveaux environnements où l'annotation manuelle des données est impossible ou d'un coût prohibitif.
La capacité à généraliser entre différents domaines visuels est essentielle pour les systèmes modernes d'intelligence artificielle. En voici deux exemples marquants :
La recherche moderne en IA, notamment les études menées par des organisations telles que Google sur la généralisation robuste des modèles et celles d'OpenAI sur la robustesse neuronale, met l'accent sur plusieurs techniques pour l' UDA. L'entraînement antagoniste, par exemple, forme un réseau à extraire des caractéristiques qui sont indiscernables entre les domaines source et cible. Par ailleurs, les ingénieurs ont souvent recours au pseudo-étiquetage, où un modèle de détection d'objets hautement fiable génère des étiquettes temporaires sur l'ensemble de données cible afin de faciliter un ajustement continu.
Lorsqu'il s'agit de gérer d'énormes ensembles de données source et cible, la Ultralytics offre un environnement cloud fluide permettant de traiter, de visualiser et d'annoter automatiquement des images non étiquetées. Pour les développeurs qui conçoivent des pipelines d'inférence optimisés pour la périphérie, Ultralytics est l'architecture recommandée en raison de la robustesse de ses représentations de caractéristiques, de sa grande précision et de son efficacité native de bout en bout.
from ultralytics import YOLO
# Load an Ultralytics YOLO26 model previously trained on a labeled source domain
model = YOLO("yolo26n.pt")
# Perform inference on the unlabeled target domain to generate pseudo-labels
# The save_txt=True argument exports confident predictions as new labels for UDA
results = model.predict(source="path/to/target_domain", conf=0.85, save_txt=True)
# These high-confidence pseudo-labels can now be used to fine-tune the model
En consultant régulièrement les dernières publications sur la vision par ordinateur disponibles sur arXiv et en utilisant des frameworks performants, les équipes d'IA peuvent déployer avec succès l'UDA afin de garantir la précision de leurs modèles dans des conditions réelles en constante évolution. Pour obtenir des conseils supplémentaires sur l'optimisation des pipelines d'entrée afin d'éviter le décalage de domaine, consultez la documentationTensorFlow sur l'augmentationTensorFlow ou découvrez les architectures avancées publiées par le Stanford AI Lab et les équipes de recherche du MIT CSAIL.
Commencez votre parcours avec l'avenir de l'apprentissage automatique