Glossaire

Précision moyenne (mAP)

Découvre l'importance de la précision moyenne (mAP) dans l'évaluation des modèles de détection d'objets pour les applications d'IA comme la conduite autonome et les soins de santé.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La précision moyenne (mAP) est une mesure largement utilisée pour évaluer les performances des modèles de détection d'objets, tels que ceux du célèbre logiciel Ultralytics YOLO très prisés. Elle fournit un score unique et complet qui résume la capacité d'un modèle à identifier et à localiser correctement des objets dans différentes classes et avec différents niveaux de confiance. Contrairement aux mesures plus simples, le mAP équilibre efficacement le compromis entre la recherche de tous les objets pertinents(rappel) et la garantie que les objets trouvés sont effectivement corrects(précision), ce qui le rend crucial pour l'évaluation des modèles utilisés dans des applications complexes telles que les systèmes autonomes et les diagnostics médicaux. La compréhension de mAP est essentielle pour toute personne impliquée dans le développement ou le déploiement de modèles de vision par ordinateur (VA).

Comprendre les bases : Précision et rappel

Pour comprendre le mAP, il est essentiel de saisir d'abord la précision et le rappel. Dans le contexte de la détection d'objets :

  • Précision: Mesure le nombre d'objets identifiés qui sont effectivement corrects. Une précision élevée signifie que le modèle fait peu de prédictions faussement positives.
  • Rappel: Mesure le nombre d'objets présents correctement identifiés par le modèle. Un rappel élevé signifie que le modèle trouve la plupart des objets pertinents (peu de faux négatifs).

Ces deux mesures ont souvent une relation inverse ; améliorer l'une peut parfois diminuer l'autre. mAP permet d'évaluer le modèle sur différents points de ce compromis, offrant ainsi une vue plus équilibrée de la performance. Tu peux en savoir plus sur les principes fondamentaux de la précision et du rappel sur Wikipédia.

Comment la mAP est-elle calculée ?

Le calcul de mAP comporte plusieurs étapes, ce qui permet une évaluation solide des performances d'un modèle pour différentes classes d'objets et différents seuils de détection :

  1. Tri de confiance: Pour chaque classe d'objets, les prédictions du modèle ( boîtes englobantes détectées) sont triées en fonction de leur score de confiance, du plus élevé au plus bas.
  2. Courbe de précision-rappel: Une courbe de précision-rappel est générée pour chaque classe. Cette courbe représente la précision par rapport aux valeurs de rappel calculées à différents seuils de confiance. À mesure que le seuil diminue, le rappel augmente généralement (davantage d'objets sont détectés), tandis que la précision peut diminuer (davantage de faux positifs peuvent être inclus).
  3. Précision moyenne (AP): La précision moyenne (AP) pour une classe unique est calculée comme la surface sous sa courbe de précision-rappel. Elle fournit un chiffre unique qui résume les performances du modèle pour cette classe spécifique à travers tous les niveaux de rappel. Il existe différentes méthodes pour calculer approximativement cette surface.
  4. Précision moyenne (mAP) : Enfin, la mAP est calculée en faisant la moyenne des valeurs AP sur toutes les classes d'objets de l'ensemble de données. On obtient ainsi un score de performance global pour le modèle sur l'ensemble du jeu de données.

Souvent, le mAP est rapporté à des seuils spécifiques d'intersection sur l'union (IoU). L'IoU mesure le chevauchement entre la boîte de délimitation prédite et la boîte de délimitation de la vérité de terrain (réelle). Les variantes courantes de mAP comprennent :

  • mAP@0.5 (ou mAP50): Calculé en utilisant un seuil fixe de 0,5 pour l'IoU. Il s'agit d'une mesure standard utilisée dans des tests comme le PASCAL VOC challenge. Une détection est considérée comme correcte uniquement si son IoU avec la vérité de terrain est de 0,5 ou plus.
  • mAP@.5 :.95 (ou mAP[.5 :.95]): Calculé en faisant la moyenne du mAP sur plusieurs seuils d'IoU, généralement de 0,5 à 0,95 avec un pas de 0,05. Cette mesure, couramment utilisée dans l'évaluation de l'ensemble de données COCO, fournit une évaluation plus complète en prenant en compte les performances en fonction de différentes exigences de précision de localisation.

Pour voir en détail comment ces mesures s'appliquent spécifiquement aux modèles YOLO , consulte le guideUltralytics YOLO Performance Metrics.

Pourquoi mAP est important

La précision moyenne est essentielle car elle offre une vision holistique des performances d'un modèle de détection d'objets. Elle tient compte simultanément de la précision de la classification (la classe de l'objet est-elle correcte ?) et de la précision de la localisation (la boîte englobante est-elle placée correctement ?) pour toutes les classes définies dans les données d'apprentissage. Il est donc plus instructif que la précision ou le rappel pris isolément, en particulier dans les ensembles de données comportant plusieurs catégories d'objets ou des distributions de classes déséquilibrées. Un score mAP plus élevé indique généralement un modèle de détection d'objets plus robuste et plus fiable. Des techniques telles que l'augmentation prudente des données, l'ajustement des hyperparamètres et le choix d'une architecture de modèle appropriée (comme le modèle YOLO11) sont des stratégies courantes pour améliorer le mAP.

Applications dans le monde réel

La mAP est essentielle pour évaluer les modèles pour des tâches réelles où la précision et la fiabilité sont primordiales :

Les autres applications comprennent la surveillance de la sécurité, la robotique(intégration de la vision par ordinateur dans la robotique), l'analyse de la vente au détail(l'IA pour une gestion plus intelligente des stocks de la vente au détail) et l'agriculture.

mAP vs. autres métriques

Il est important de distinguer mAP des mesures d'évaluation connexes utilisées dans l'apprentissage machine (ML) :

  • Précision: Principalement utilisée dans les tâches de classification, la précision mesure la proportion globale de prédictions correctes (à la fois les vrais positifs et les vrais négatifs) parmi le nombre total d'instances. Elle n'évalue pas directement la qualité de la localisation et peut être trompeuse dans la détection d'objets, en particulier avec les ensembles de données déséquilibrés où la classe d'arrière-plan domine.
  • Intersection sur l'Union (IoU): Mesure le chevauchement spatial entre une boîte de délimitation prédite et une boîte de délimitation de vérité terrain. Alors que l'IoU évalue la qualité de la localisation pour les détections individuelles, mAP incorpore des seuils d'IoU (comme 0,5 ou l'intervalle 0,5:0,95) pour déterminer si une détection est considérée comme un vrai positif, puis agrège les performances à travers les classes et les niveaux de confiance. L'IoU lui-même est un composant utilisé dans le calcul de mAP, il ne le remplace pas.

Il est essentiel de comprendre ces différences pour choisir la mesure appropriée en fonction de la tâche spécifique et des objectifs de l'évaluation. Pour en savoir plus, consulte le guide d'évaluation et d'affinage des modèles.

Outils et repères

Des outils comme Ultralytics HUB permettent aux utilisateurs de former, de suivre et d'évaluer des modèles, en mettant en avant le mAP comme indicateur de performance clé pendant les processus de formation et de validation des modèles. Les cadres de ML tels que PyTorch et TensorFlow fournissent les composants fondamentaux pour la construction et l'entraînement de ces modèles de détection d'objets. Les ensembles de données normalisés comme COCO et PASCAL VOC utilisent mAP comme principale métrique pour comparer les modèles de détection d'objets dans les classements publics et les articles de recherche, ce qui stimule les progrès dans le domaine. Tu peux explorer et comparer les performances de divers modèles, souvent mesurées par mAP, sur les pages de comparaison des modèlesUltralytics .

Tout lire