Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Précision moyennemAP

Découvrez l'importance de la précision moyennemAP dans l'évaluation des modèles de détection d'objets pour les applications d'IA telles que la conduite autonome et les soins de santé.

La précision moyennemAP est la mesure de performance définitive utilisée pour évaluer les modèles de vision par ordinateur. modèles de vision par ordinateur, en particulier ceux conçus pour la détection d'objets et la détection d'objets et la segmentation d'instances. Contrairement à la simple de classification, qui détermine uniquement si l'étiquette d'une image est correcte, la mAP évalue la capacité d'un modèle à classer correctement un objet et à le localiser précisément dans l'image à l'aide d'une à classify correctement un objet et à le localiser précisément dans l'image à l'aide d'une boîte boîte englobante. Cette évaluation à double objectif en fait la norme de l'industrie pour l'évaluation comparative des architectures modernes. la norme industrielle pour l'évaluation comparative d'architectures modernes telles que le YOLO11 par rapport à d'autres détecteurs de pointe.

Les composantes du mAP

Pour comprendre le mAP, il faut d'abord comprendre la relation entre trois concepts fondamentaux : Intersection sur Union (IoU), la précision et le rappel.

  • Intersection sur l'Union (IoU) : Elle mesure le chevauchement spatial entre la boîte prédite et la vérité de terrain (l'emplacement réel de l'objet). la vérité terrain (l'emplacement réel de l'objet). Il s'agit d'un rapport compris entre 0 et 1. Un IoU élevé indique que la localisation du modèle est très proche de la réalité. localisation du modèle est très proche de la réalité.
  • La précision : Elle mesure la fiabilité des prédictions. Une précision signifie que lorsque le modèle prédit un objet, il a toutes les chances d'être correct, ce qui minimise les faux positifs, il a toutes les chances d'être correct, ce qui minimise les faux positifs.
  • Rappel : Ce critère mesure la capacité du modèle à trouver tous les objets existants. Un rappel élevé signifie que le modèle capture la plupart des objets de la scène, minimisant ainsi les faux négatifs.

Le calcul de la mAP consiste à tracer une courbe courbe de précision-rappel pour chaque classe d'objets. La "précision moyenne"AP est essentiellement la surface sous cette courbe. Enfin, la "moyenne" de mAP provient de la moyenne de ces scores AP pour toutes les classes de l'ensemble de données, ce qui donne un score unique et complet. l'ensemble des classes de l'ensemble de données, ce qui donne un score unique et complet.

mAP vs. mAP

Lorsque vous lisez des documents de recherche ou des pages de comparaison de modèles, vous verrez souvent mAP avec différents suffixes. vous verrez souvent mAP indiqué avec différents suffixes. Ces suffixes font référence au seuil de IoU utilisé pour considérer une détection comme "correcte". "correcte".

  • mAP: cette métrique considère qu'une prédiction est correcte si elle chevauche la vérité de terrain d'au moins 50%. C'était la norme pour les anciens ensembles de données comme le Pascal VOC. Il s'agit d'une métrique indulgente qui donne la priorité à la recherche de l'objet plutôt qu'à un alignement parfait.
  • mAP: Popularisé par l'ensemble de donnéesCOCO , il s'agit de l'étalon-or moderne. l'étalon-or moderne. Il calcule la moyenne des mAP calculés par pas de 0,05 entre les IoU 0,50 et 0,95. Cela récompense les modèles qui non seulement trouvent l'objet, mais le localisent avec une extrême précision au niveau du pixel, une caractéristique clé de l'analyse de l'objet. Ultralytics YOLO11.

Applications concrètes

Parce qu'il tient compte à la fois des fausses alarmes et des détections manquées, le mAP est essentiel dans les environnements à fort enjeu.

  1. Conduite autonome : Dans le domaine de l l 'IA dans l'automobile, une voiture autonome doit detect piétons, les autres véhicules et les panneaux de signalisation. Un score mAP élevé garantit que le système de perception ne manque pas les obstacles (rappel élevé) tout en évitant les freinages fantômes causés par les fausses détections (rappel élevé). obstacles (rappel élevé) tout en évitant les freinages fantômes causés par de fausses détections (précision élevée).
  2. Diagnostic médical : Dans l'analyse l'analyse d'images médicales, l'identification de tumeurs ou des fractures nécessite une grande précision pour éviter les biopsies inutiles et un rappel élevé pour s'assurer qu'aucune pathologie n'est non traitée. L 'IA dans les soins de santé s'appuie sur mAP pour valider que les modèles peuvent aider les radiologues de manière fiable à partir de diverses données sur les patients.

Différencier la mAP des mesures apparentées

Il est important de distinguer le mAP des termes d'évaluation similaires afin de choisir la bonne mesure pour votre projet.

  • par rapport à la précision : La précision est le rapport entre prédictions correctes par rapport au nombre total de prédictions. Elle fonctionne bien pour la classification d'images mais échoue dans la détection d'objets car elle ne tient pas compte de la classe "arrière-plan" ni du chevauchement spatial des boîtes.
  • par rapport à la note F1 : Le score F1 est la moyenne harmonique de la précision et du rappel à un seuil de confiance spécifique. moyenne harmonique de la précision et du rappel à un seuil de confiance spécifique. Bien qu'il soit utile pour sélectionner un point de fonctionnement, mAP est plus robuste car il évalue les performances pour tous lesseuils de confiance plutôt que pour un seul. seuils de confiance plutôt qu'un seul.

Calcul de mAP avec Python

Le logicielUltralytics Python automatise le processus complexe de calcul de mAP. En exécutant le mode de validation sur un modèle entraîné, vous pouvez instantanément récupérer les scores mAP à la fois pour le seuil de 50 % et pour la fourchette plus stricte de 50 à 95 %. 50 % et la fourchette plus stricte de 50 à 95 %.

from ultralytics import YOLO

# Load the YOLO11 nano model
model = YOLO("yolo11n.pt")

# Validate on the COCO8 dataset (downloads automatically)
metrics = model.val(data="coco8.yaml")

# Access the mAP50-95 attribute from the box metrics
# This returns the mean average precision averaged over IoU 0.5-0.95
print(f"mAP50-95: {metrics.box.map}")

Ce flux de travail permet aux développeurs d'évaluer leurs modèles sur des ensembles de données standard pour la détection d'objets. sur des ensembles de données standard pour la détection d'objets, garantissant ainsi que leurs applications répondent aux normes de performance nécessaires avant le déploiement. de performance nécessaires avant le déploiement.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant