Glossar

Rückruf

Erfahren Sie, was Recall beim maschinellen Lernen ist, warum er wichtig ist und wie er sicherstellt, dass KI-Modelle kritische positive Instanzen effektiv erfassen.

Recall, auch bekannt als Sensitivität oder True-Positive-Rate, ist eine grundlegende Bewertungskennzahl für maschinelles Lernen (ML) und Statistik. Sie misst die Fähigkeit eines Modells, alle relevanten Instanzen innerhalb eines Datensatzes korrekt zu identifizieren. Einfach ausgedrückt, beantwortet Recall die Frage: "Wie viele der tatsächlich positiven Instanzen hat das Modell korrekt als positiv vorhergesagt?" Ein hoher Recall-Wert zeigt an, dass das Modell effektiv das findet, was es finden soll, und die Anzahl der übersehenen positiven Fälle (falsche Negative) minimiert. Diese Kennzahl ist besonders wichtig bei Anwendungen, bei denen die Nichtentdeckung eines positiven Falls erhebliche Folgen hat.

Die Bedeutung einer hohen Rückrufquote

In vielen realen Szenarien sind die Kosten eines falsch negativen Ergebnisses (fehlende Erkennung) viel höher als die Kosten eines falsch positiven Ergebnisses (falscher Alarm). In diesem Fall ist es wichtig, eine hohe Rückrufquote zu erzielen. Bei Aufgaben wie der medizinischen Bildanalyse oder der Erkennung von Betrug stellt ein Modell mit hohem Recall sicher, dass so viele echte Fälle wie möglich für die weitere Überprüfung erfasst werden, auch wenn dies bedeutet, dass einige Nicht-Fälle fälschlicherweise markiert werden.

  • Medizinische Diagnose: Für ein KI-gestütztes System zur Erkennung von Krebs aus medizinischen Scans ist ein Modell mit hohem Rückrufwert entscheidend. Es ist weitaus besser, wenn das System einen gesunden Patienten zur Überprüfung durch einen Radiologen markiert (ein falsches Positiv), als wenn es einen Krebstumor übersieht (ein falsches Negativ), was eine lebensrettende Behandlung verzögern könnte. Viele KI-Lösungen im Gesundheitswesen sind auf hohe Empfindlichkeit optimiert.
  • Sicherheit und Überwachung: Für ein Sicherheitsalarmsystem, das Eindringlinge erkennen soll, ist ein hoher Rückrufwert von größter Bedeutung. Das System muss jede potenzielle Bedrohung erkennen, auch wenn es gelegentlich ein streunendes Tier mit einem Eindringling verwechselt. Das Übersehen eines echten Sicherheitsverstoßes würde das System unwirksam machen.

Rückruf in Ultralytics YOLO-Modellen

Im Zusammenhang mit Computer Vision (CV) und Modellen wie Ultralytics YOLO ist Recall eine Schlüsselmetrik, die neben Precision und Mean Average Precision (mAP) zur Bewertung der Leistung bei Aufgaben wie Objekterkennung und Instanzsegmentierung verwendet wird. Ein gutes Gleichgewicht zwischen Recall und Precision ist oft entscheidend für eine robuste Leistung in der Praxis. Beim Vergleich von Modellen wie YOLOv8 und YOLO11 hilft Recall zu verstehen, wie gut jedes Modell alle Zielobjekte identifiziert. Benutzer können benutzerdefinierte Modelle mit Frameworks wie PyTorch oder TensorFlow trainieren und den Recall mit Tools wie Weights & Biases oder den integrierten Funktionen in Ultralytics HUB verfolgen. Das Verständnis des Rückrufs hilft bei der Optimierung von Modellen für bestimmte Anwendungsfälle, was möglicherweise die Abstimmung von Hyperparametern oder die Erkundung verschiedener Modellarchitekturen wie YOLOv10 oder das neueste YOLO11 beinhaltet. Ressourcen wie die Ultralytics-Dokumentation bieten umfassende Anleitungen zur Schulung und Bewertung.

Rückruf vs. andere Metriken

Es ist wichtig, den Recall von anderen gängigen Bewertungsmaßstäben zu unterscheiden.

  • Präzision: Während Recall sich darauf konzentriert, alle positiven Proben zu finden, misst Precision die Genauigkeit der positiven Vorhersagen. Sie beantwortet: "Von allen Fällen, die das Modell als positiv vorhergesagt hat, wie viele waren tatsächlich positiv?" Häufig besteht ein Kompromiss zwischen Precision und Recall; eine Erhöhung der einen kann die andere verringern. Dieses Konzept wird als Precision-Recall Tradeoff bezeichnet.
  • Genauigkeit: Misst den Gesamtprozentsatz der korrekten Vorhersagen (sowohl positiv als auch negativ). Die Genauigkeit kann bei unausgewogenen Datensätzen, bei denen eine Klasse die andere bei weitem übertrifft, eine irreführende Metrik sein. Beispielsweise erreicht ein Modell, das in einem Datensatz mit 99 % negativen Stichproben alles als negativ vorhersagt, eine Genauigkeit von 99 %, hat aber einen Recall von Null für die positive Klasse.
  • F1-Score: Dies ist das harmonische Mittel aus Precision und Recall. Der F1-Score liefert eine einzige Zahl, die beide Metriken ausbalanciert, was ihn zu einem nützlichen Maß macht, wenn Sie sowohl falsch-positive als auch falsch-negative Ergebnisse berücksichtigen müssen. Er wird häufig verwendet, wenn eine ungleichmäßige Klassenverteilung vorliegt.
  • Fläche unter der Kurve (AUC): Speziell für die binäre Klassifizierung stellt die ROC-Kurve (Receiver Operating Characteristic) die wahr-positive Rate (Recall) gegen die falsch-positive Rate auf. Die AUC liefert einen einzigen Wert, der die Leistung des Modells über alle Klassifizierungsschwellenwerte hinweg zusammenfasst. Die Fläche unter der Precision-Recall-Kurve (AUC-PR) ist bei unausgewogenen Klassifizierungsaufgaben oft aussagekräftiger.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert