Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Fläche unter der Kurve (AUC)

Erfahren Sie mehr über die Bedeutung der Fläche unter der Kurve (Area Under the Curve, AUC) bei der Bewertung von ML-Modellen. Entdecken Sie die Vorteile, ROC-Kurven-Erkenntnisse und Anwendungen in der Praxis.

Die Area Under the Curve (AUC) ist eine weit verbreitete Leistungskennzahl im maschinellen Lernen (ML) zur Bewertung der Effektivität von binären Klassifikationsmodellen. Sie stellt die Wahrscheinlichkeit dar, dass ein Modell eine zufällig ausgewählte positive Instanz höher einstuft als eine zufällig ausgewählte negative Instanz. Im Wesentlichen fasst die AUC die Fähigkeit eines Modells zusammen, zwischen Klassen über alle möglichen Klassifizierungsschwellenwerte hinweg zu unterscheiden, und bietet so ein einzelnes, aggregiertes Leistungsmaß. Ein höherer AUC-Wert deutet auf ein leistungsfähigeres Modell hin, was es zu einem entscheidenden Werkzeug für den Vergleich verschiedener Modelle und für das Hyperparameter-Tuning macht.

Was ist die ROC-Kurve?

AUC ist untrennbar mit der Receiver Operating Characteristic (ROC)-Kurve verbunden. Die ROC-Kurve ist ein Graph, der die True Positive Rate (TPR), auch bekannt als Recall, gegen die False Positive Rate (FPR) bei verschiedenen Schwellenwerteinstellungen aufträgt. Die AUC ist einfach die Fläche unter dieser ROC-Kurve. Während die ROC-Kurve eine visuelle Darstellung der Kompromisse eines Modells zwischen Sensitivität und Spezifität bietet, quantifiziert der AUC-Score diesen Kompromiss in einer einzigen Zahl und vereinfacht so den Modellvergleich.

Interpretation des AUC-Scores

Der Wert von AUC liegt zwischen 0 und 1, wobei ein höherer Wert auf ein besseres Modell hinweist.

  • AUC = 1: Dies stellt ein perfektes Modell dar, das alle positiven und negativen Instanzen korrekt klassifiziert. Jede positive Stichprobe hat eine höhere vorhergesagte Wahrscheinlichkeit als jede negative Stichprobe.
  • AUC = 0.5: Dies deutet darauf hin, dass das Modell keine Unterscheidungsfähigkeit besitzt, was dem zufälligen Raten entspricht. Die ROC-Kurve für ein solches Modell wäre eine gerade diagonale Linie.
  • AUC < 0.5: A score below 0.5 suggests the model is performing worse than random chance. In practice, this often points to an issue with the model or data, such as inverted predictions.
  • 0.5 < AUC < 1: This range signifies that the model has some ability to discriminate. The closer the value is to 1, the better the model's performance.

Tools wie Scikit-learn bieten Funktionen zur einfachen Berechnung von AUC-Scores, die mit Plattformen wie TensorBoard visualisiert werden können.

Anwendungsfälle in der Praxis

AUC ist eine wertvolle Metrik in vielen Bereichen, in denen binäre Klassifizierung entscheidend ist.

  1. Medizinische Bildanalyse: In der KI im Gesundheitswesen werden Modelle für Aufgaben wie die Erkennung von Tumoren in medizinischen Scans entwickelt. Ein AUC-Score wird verwendet, um zu bewerten, wie gut ein Modell zwischen malignen (positiven) und benignen (negativen) Fällen unterscheiden kann. Ein hoher AUC-Wert ist entscheidend für die Entwicklung zuverlässiger Diagnosewerkzeuge, die Radiologen unterstützen können und eine hohe Sensitivität ohne eine übermäßige Anzahl von Fehlalarmen gewährleisten. Dies ist entscheidend für Modelle, die Datensätze wie das Brain Tumor Dataset analysieren.
  2. Betrugserkennung: In der Finanzbranche werden KI-Modelle zur Identifizierung betrügerischer Transaktionen eingesetzt. Datensätze in diesem Bereich sind typischerweise stark unausgewogen, mit weitaus mehr legitimen Transaktionen als betrügerischen. AUC ist hier besonders nützlich, da es ein robustes Leistungsmaß liefert, das nicht durch die Mehrheitsklasse verzerrt wird, anders als die Genauigkeit. Es hilft Finanzinstituten, Systeme zu entwickeln, die Betrug effektiv aufdecken und gleichzeitig Fehlalarme minimieren, die Kunden belästigen könnten. Führende Finanzinstitute verlassen sich bei der Risikobewertung auf solche Metriken.

AUC vs. andere Metriken

Obwohl AUC eine wertvolle Metrik ist, ist es wichtig zu verstehen, wie sie sich von anderen Bewertungsmaßen unterscheidet, die in Computer Vision (CV) und ML verwendet werden:

  • AUC vs. Genauigkeit: Die Genauigkeit misst die Gesamtrichtigkeit der Vorhersagen, kann aber bei unausgewogenen Datensätzen irreführend sein. AUC bietet ein schwellenwertunabhängiges Maß für die Trennbarkeit, wodurch es in solchen Fällen zuverlässiger ist.
  • AUC vs. Precision-Recall: Für unausgewogene Datensätze, bei denen die positive Klasse selten und von primärem Interesse ist (z. B. die Erkennung seltener Krankheiten), kann die Precision-Recall-Kurve und ihre entsprechende Fläche (AUC-PR) informativer sein als ROC AUC. Metriken wie Precision und Recall konzentrieren sich speziell auf die Leistung in Bezug auf die positive Klasse. Der F1-Score gleicht auch Precision und Recall aus.
  • AUC vs. mAP/IoU: AUC wird hauptsächlich für binäre Klassifizierungsaufgaben verwendet. Für Objekterkennungs-Aufgaben, die bei Modellen wie Ultralytics YOLO üblich sind, sind Metriken wie Mean Average Precision (mAP) und Intersection over Union (IoU) der Standard. Diese Metriken bewerten sowohl die Klassifikationsgenauigkeit als auch die Lokalisierungspräzision erkannter Objekte mithilfe von Bounding Boxes. Hier erfahren Sie mehr über YOLO-Leistungsmetriken.

Die Wahl der richtigen Metrik hängt von dem spezifischen Problem, den Eigenschaften des Datensatzes (wie z. B. der Klassenverteilung) und den Zielen des KI-Projekts ab. AUC bleibt aufgrund ihrer Robustheit und Interpretierbarkeit ein Eckpfeiler für die Bewertung der Leistung bei der binären Klassifizierung. Das Verfolgen von Experimenten mit Tools wie Ultralytics HUB kann helfen, diese Metriken effektiv zu verwalten und zu vergleichen.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert