Erfahren Sie, was Recall im maschinellen Lernen ist, warum er wichtig ist und wie er sicherstellt, dass KI-Modelle kritische positive Instanzen effektiv erfassen.
Recall, auch bekannt als Sensitivität oder True-Positive-Rate, ist eine grundlegende Bewertungsmaßstab, der zur Messung der Fähigkeit eines Modells für maschinelles Lernen (ML), alle alle relevanten Instanzen innerhalb eines Datensatzes zu identifizieren. Im Wesentlichen beantwortet die Wiederfindungsrate die spezifische Frage: "Von allen der tatsächlich positiven Fälle, wie viele hat das Modell erfolgreich detect? Diese Metrik ist besonders auf Folgendes ausgerichtet Minimierung falsch negativer Ergebnisse, um sicherzustellen, dass kritische Ereignisse oder Objekte nicht übersehen werden. Während Genauigkeit einen allgemeinen Überblick über die Leistung bietet, wird der Rückruf zum Hauptindikator für den Erfolg in Szenarien, in denen das Verfehlen eines Ziels höhere Kosten verursacht als ein falscher Alarm.
Bei vielen Aufgaben der Computer Vision (CV) und Datenanalyse sind die Kosten von Fehlern nicht einheitlich. Wird ein positiver Fall nicht detect (Fehler vom Typ II), kann dies manchmal gefährlich oder teuer sein. Eine hohe Trefferquote stellt sicher, dass das System ein weites Netz auswirft, um so viele echte positive Fälle wie möglich zu erfassen. wie möglich. Dies wird häufig durch die Anpassung der Konfidenzschwelle während der Inferenz; eine Senkung der Schwellenwert erhöht in der Regel die Auffindbarkeit, kann aber zu mehr falsch positiven Ergebnissen führen.
Ingenieure analysieren oft die Präzisions-Rückruf-Kurve um die Kompromisse zu verstehen, die ihren Modellen innewohnen. Ein Modell mit 100 % Wiedererkennungswert hat jedes einzelne Zielobjekt gefunden, obwohl es möglicherweise auch einige Hintergrundgeräusche fälschlicherweise als Zielobjekte identifiziert hat.
Der Rückruf ist die treibende Kraft hinter vielen sicherheitskritischen KI-Lösungen. Hier sind zwei prominente Beispiele, bei denen die Rückrufquote Vorrang hat:
Das Verständnis des Unterschieds zwischen Recall und verwandten Metriken ist entscheidend für die Interpretation der Erkenntnisse der Modellevaluation.
Bei der Entwicklung von Modellen mit dem Ultralytics YOLO11 Architektur wird der Rückruf automatisch während des Validierungsprozesses automatisch berechnet. Das Framework berechnet die Rückrufquote für jede Klasse und die durchschnittliche Präzision (mAP) und hilft Entwickler, wie gut das Modell Objekte findet.
Mit Python können Sie ein trainiertes Modell leicht validieren und seine Recall-Metriken anzeigen:
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")
# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")
Dieses Codeschnipsel lädt eine YOLO11 Modell und führt die Validierung für den COCO8 durch. Die Ausgabe bietet eine umfassende Aufschlüsselung der Leistung, so dass Sie beurteilen können, ob Ihr Modell die notwendigen Anforderungen für Ihre spezifische Anwendung erfüllt. Wenn die Rückrufquote zu niedrig ist, können Sie Techniken in Betracht ziehen wie Datenerweiterung oder Hyperparameter-Tuning in Betracht ziehen, um die Empfindlichkeit zu verbessern.