Découvrez comment la précision moyenne (mAP) évalue les modèles de vision par ordinateur. Explorez IoU, la précision et le rappel, et calculez mAP Ultralytics dès aujourd'hui.
La précision moyenne (mAP) est une mesure complète largement utilisée pour évaluer les performances des modèles de vision par ordinateur, en particulier dans des tâches telles que la détection d'objets et la segmentation d'instances. Contrairement à la simple précision, qui se contente de vérifier si une image est correctement classée, mAP la capacité d'un modèle à trouver des objets et la précision avec laquelle il positionne le cadre de sélection autour d'eux. Cela en fait la principale référence pour comparer les architectures de pointe telles que YOLO26 aux générations précédentes. En résumant le compromis entre précision et rappel pour toutes les classes, mAP un score unique qui reflète la robustesse d'un modèle dans des scénarios réels.
Pour calculer mAP, il est nécessaire de comprendre au préalable trois concepts fondamentaux qui définissent la qualité de la détection :
Le calcul commence par déterminer la précision moyenne (AP) pour chaque classe spécifique (par exemple, « personne », « voiture », « chien »). Pour ce faire, on calcule l'aire sous la courbe précision-rappels, qui représente la précision en fonction des rappels à différents seuils de confiance. La « moyenne » dans la précision moyenne fait simplement référence à la moyenne de ces AP dans toutes les catégories des données d'apprentissage.
Les repères de recherche standard, tels que COCO , signalent fréquemment deux variations principales :
Il est important de distinguer mAP la précision. La précision convient à la classification d'images où le résultat est une étiquette unique pour l'ensemble de l'image, mais elle échoue dans la détection d'objets car elle ne tient pas compte de la position spatiale de l'objet ou de la classe d'arrière-plan. De même, alors que le score F1 fournit une moyenne harmonique de la précision et du rappel à un seuil de confiance unique, mAP les performances à tous les niveaux de confiance, offrant ainsi une vision plus holistique de la stabilité du modèle.
mAP élevés sont essentiels dans les environnements où la sécurité et l'efficacité sont primordiales.
Les cadres modernes simplifient le calcul de ces indicateurs pendant le
validation phase. L'exemple suivant montre comment charger
un modèle et calculer mAP la fonction ultralytics Paquet Python .
from ultralytics import YOLO
# Load the YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Validate the model on a dataset to compute mAP
# This runs inference and compares predictions to ground truth
metrics = model.val(data="coco8.yaml")
# Print mAP@50-95 (map) and mAP@50 (map50)
print(f"mAP@50-95: {metrics.box.map:.3f}")
print(f"mAP@50: {metrics.box.map50:.3f}")
mAP essentiel de comprendre et d'optimiser le mAP avant le déploiement du modèle. Pour rationaliser ce processus, Ultralytics offre un suivi automatisé du mAP, des courbes de perte et d' autres indicateurs clés de performance pendant la formation, permettant aux développeurs de visualiser les progrès et de sélectionner le meilleur point de contrôle du modèle pour la production.