Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Mittlere durchschnittliche Präzision (mAP)

Entdecken Sie die Bedeutung von Mean Average Precision (mAP) bei der Bewertung von Objekterkennungsmodellen für KI-Anwendungen wie autonomes Fahren und Gesundheitswesen.

Die mittlere durchschnittliche Präzision (Mean Average Precision, mAP) ist eine wichtige Evaluationsmetrik, die umfassend im Bereich Computer Vision, insbesondere für Objekterkennungsaufgaben, eingesetzt wird. Sie bietet einen einzelnen, umfassenden Wert, der die Leistung eines Modells zusammenfasst, indem sie die Genauigkeit seiner Vorhersagen über alle Objektkategorien hinweg misst. Der mAP-Wert berücksichtigt sowohl die Korrektheit der Klassifizierung (ist das Objekt das, was das Modell sagt?) als auch die Qualität der Lokalisierung (wie gut stimmt die vorhergesagte Bounding Box mit der tatsächlichen Position des Objekts überein?). Da mAP eine ausgewogene Bewertung bietet, hat es sich zur Standardmetrik für den Vergleich der Leistung verschiedener Objekterkennungsmodelle wie Ultralytics YOLO entwickelt.

Wie mAP funktioniert

Um mAP zu verstehen, ist es hilfreich, zuerst seine Kernkomponenten zu erfassen: Precision (Genauigkeit), Recall (Trefferquote) und Intersection over Union (IoU).

  • Präzision: Misst, wie genau die Vorhersagen des Modells sind. Sie beantwortet die Frage: "Welcher Anteil der vom Modell erkannten Objekte war korrekt?"
  • Recall: Misst, wie gut das Modell alle tatsächlichen Objekte findet. Sie beantwortet die Frage: "Welchen Anteil der tatsächlich im Bild vorhandenen Objekte hat das Modell erfolgreich erkannt?"
  • Intersection over Union (IoU): Eine Metrik, die quantifiziert, wie stark sich eine vorhergesagte Bounding Box mit einer Ground-Truth-Bounding Box (manuell beschriftet) überschneidet. Eine Erkennung wird typischerweise als True Positive betrachtet, wenn der IoU über einem bestimmten Schwellenwert liegt (z. B. 0,5).

Die mAP-Berechnung fasst diese Konzepte zusammen. Für jede Objektklasse wird eine Precision-Recall-Kurve erstellt, indem Präzision gegen Recall bei verschiedenen Konfidenzschwellenwerten aufgetragen wird. Die Average Precision (AP) für diese Klasse ist die Fläche unter dieser Kurve und liefert eine einzelne Zahl, die die Leistung des Modells für diese spezifische Klasse darstellt. Schließlich wird die mAP berechnet, indem der Mittelwert der AP-Werte über alle Objektklassen hinweg genommen wird. Einige Bewertungsschemata, wie z. B. das für den beliebten COCO-Datensatz, gehen noch einen Schritt weiter, indem sie die mAP über mehrere IoU-Schwellenwerte mitteln, um eine noch robustere Bewertung zu ermöglichen.

Abgrenzung von mAP von anderen Metriken

Obwohl verwandt mit anderen Evaluierungsmetriken, hat mAP einen bestimmten Zweck.

  • Genauigkeit: Die Genauigkeit misst das Verhältnis von korrekten Vorhersagen zur Gesamtzahl der Vorhersagen. Sie wird im Allgemeinen für Klassifizierungsaufgaben verwendet und ist für die Objekterkennung ungeeignet, bei der eine Vorhersage sowohl korrekt klassifiziert als auch lokalisiert werden muss.
  • F1-Score: Der F1-Score ist das harmonische Mittel aus Präzision und Rückruf (Recall). Obwohl er nützlich ist, wird er typischerweise bei einem einzelnen Konfidenzschwellenwert berechnet. Im Gegensatz dazu bietet mAP eine umfassendere Bewertung, indem die Leistung über alle Schwellenwerte gemittelt wird.
  • Konfidenz: Dies ist keine Evaluationsmetrik für das Modell als Ganzes, sondern ein Wert, der jeder einzelnen Vorhersage zugewiesen wird und angibt, wie sicher sich das Modell bei dieser einen Erkennung ist. Die mAP-Berechnung verwendet diese Konfidenzwerte, um die Precision-Recall-Kurve zu erstellen.

Tools und Benchmarks

Standardisierte Benchmark-Datensätze sind entscheidend für die Weiterentwicklung des Bereichs der Objekterkennung. Datensätze wie PASCAL VOC und COCO verwenden mAP als primäre Metrik für die Rangfolge von Einreichungen auf öffentlichen Bestenlisten. Dies ermöglicht es Forschern und Praktikern, verschiedene Modelle objektiv zu vergleichen, wie z. B. YOLOv8 und YOLO11.

Plattformen wie Ultralytics HUB verwenden mAP prominent, um Benutzern zu helfen, die Leistung während des Modelltrainings und der Validierung zu verfolgen. Die zugrunde liegenden Deep-Learning-Frameworks, die diese Modelle antreiben, wie z. B. PyTorch und TensorFlow, stellen die notwendigen Werkzeuge für den Aufbau und das Training von Modellen bereit, die letztendlich mit mAP bewertet werden.

Anwendungsfälle in der Praxis

Die mAP-Metrik ist grundlegend für die Entwicklung zuverlässiger KI-Systeme.

  1. Autonome Fahrzeuge: In der KI für selbstfahrende Autos muss ein Wahrnehmungsmodell verschiedene Objekte wie Autos, Fußgänger, Radfahrer und Verkehrsschilder genau erkennen. Ein hoher mAP-Score auf einem anspruchsvollen Datensatz wie Argoverse zeigt an, dass das Modell über alle kritischen Klassen hinweg robust und zuverlässig ist, was für die Gewährleistung der Sicherheit unerlässlich ist. Führende Unternehmen in diesem Bereich, wie z. B. Waymo, sind stark von rigorosen Bewertungen mit Metriken wie mAP abhängig.
  2. Medizinische Bildanalyse: Beim Training eines Modells zur Erkennung von Anomalien wie Tumoren oder Läsionen auf Scans unter Verwendung eines Datensatzes wie dem Brain Tumor Datensatz wird mAP verwendet, um die allgemeine diagnostische Genauigkeit zu bewerten. Eine hohe mAP stellt sicher, dass das Modell nicht nur gut darin ist, die häufigste Art von Anomalie zu erkennen, sondern auch wirksam bei der Identifizierung seltener, aber ebenso wichtiger Zustände ist. Diese umfassende Bewertung ist ein wichtiger Schritt, bevor ein Modell für den Einsatz im Gesundheitswesen in Betracht gezogen werden kann.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert