Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Précision moyennemAP

Découvrez comment la précision moyenne (mAP) évalue les modèles de vision par ordinateur. Explorez IoU, la précision et le rappel, et calculez mAP Ultralytics dès aujourd'hui.

La précision moyenne (mAP) est une mesure complète largement utilisée pour évaluer les performances des modèles de vision par ordinateur, en particulier dans des tâches telles que la détection d'objets et la segmentation d'instances. Contrairement à la simple précision, qui se contente de vérifier si une image est correctement classée, mAP la capacité d'un modèle à trouver des objets et la précision avec laquelle il positionne le cadre de sélection autour d'eux. Cela en fait la principale référence pour comparer les architectures de pointe telles que YOLO26 aux générations précédentes. En résumant le compromis entre précision et rappel pour toutes les classes, mAP un score unique qui reflète la robustesse d'un modèle dans des scénarios réels.

Les composantes du mAP

Pour calculer mAP, il est nécessaire de comprendre au préalable trois concepts fondamentaux qui définissent la qualité de la détection :

  • Intersection sur l'union (IoU): cette mesure évalue le chevauchement spatial entre la boîte prédite et l' annotation de référence. Il s'agit d'un ratio compris entre 0 et 1. Une prédiction n'est souvent considérée comme un « vrai positif » que si IoU un seuil spécifique, tel que 0,5 ou 0,75.
  • Précision: cette métrique répond à la question suivante : « Parmi tous les objets que le modèle a prétendu detect, quelle proportion était réellement correcte ? » Une précision élevée signifie que le modèle produit très peu de faux positifs.
  • Rappel: cette métrique pose la question suivante : « Parmi tous les objets qui existent réellement dans l'image, quelle fraction le modèle a-t-il trouvée ? » Un rappel élevé indique que le modèle évite les faux négatifs et manque rarement un objet.

Méthodologie de calcul

Le calcul commence par déterminer la précision moyenne (AP) pour chaque classe spécifique (par exemple, « personne », « voiture », « chien »). Pour ce faire, on calcule l'aire sous la courbe précision-rappels, qui représente la précision en fonction des rappels à différents seuils de confiance. La « moyenne » dans la précision moyenne fait simplement référence à la moyenne de ces AP dans toutes les catégories des données d'apprentissage.

Les repères de recherche standard, tels que COCO , signalent fréquemment deux variations principales :

  1. mAP: cette mesure considère qu'une détection est correcte si IoU d'au moins 0,50. Il s'agit d'une mesure indulgente.
  2. mAP: Il s'agit de la moyenne du mAP à IoU compris entre 0,50 et 0,95, par incréments de 0,05. Cette mesure rigoureuse récompense les modèles qui atteignent une précision de localisation élevée.

mAP . Indicateurs connexes

Il est important de distinguer mAP la précision. La précision convient à la classification d'images où le résultat est une étiquette unique pour l'ensemble de l'image, mais elle échoue dans la détection d'objets car elle ne tient pas compte de la position spatiale de l'objet ou de la classe d'arrière-plan. De même, alors que le score F1 fournit une moyenne harmonique de la précision et du rappel à un seuil de confiance unique, mAP les performances à tous les niveaux de confiance, offrant ainsi une vision plus holistique de la stabilité du modèle.

Applications concrètes

mAP élevés sont essentiels dans les environnements où la sécurité et l'efficacité sont primordiales.

  • Véhicules autonomes: Dans le domaine de la technologie de conduite autonome, la sécurité dépend de la détection des piétons et des panneaux de signalisation avec un rappel élevé (ne rien manquer) et une grande précision (éviter les freinages fantômes). mAP le système de perception équilibre efficacement ces besoins.
  • Analyse d'images médicales: Lorsqu'ils identifient des tumeurs ou des fractures sur des radiographies, les radiologues s'appuient sur l' intelligence artificielle dans le domaine de la santé pour signaler les problèmes potentiels. mAP élevé indique que le modèle met en évidence les anomalies de manière fiable sans submerger le médecin de fausses alertes, ce qui facilite un diagnostic précis.

Mesure mAP Ultralytics

Les cadres modernes simplifient le calcul de ces indicateurs pendant le validation phase. L'exemple suivant montre comment charger un modèle et calculer mAP la fonction ultralytics Paquet Python .

from ultralytics import YOLO

# Load the YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")

# Validate the model on a dataset to compute mAP
# This runs inference and compares predictions to ground truth
metrics = model.val(data="coco8.yaml")

# Print mAP@50-95 (map) and mAP@50 (map50)
print(f"mAP@50-95: {metrics.box.map:.3f}")
print(f"mAP@50: {metrics.box.map50:.3f}")

mAP essentiel de comprendre et d'optimiser le mAP avant le déploiement du modèle. Pour rationaliser ce processus, Ultralytics offre un suivi automatisé du mAP, des courbes de perte et d' autres indicateurs clés de performance pendant la formation, permettant aux développeurs de visualiser les progrès et de sélectionner le meilleur point de contrôle du modèle pour la production.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant