Erfahre, was Recall beim maschinellen Lernen ist, warum er wichtig ist und wie er sicherstellt, dass KI-Modelle kritische positive Instanzen effektiv erfassen.
Die Rückrufquote ist eine wichtige Leistungskennzahl beim maschinellen Lernen (ML) und bei der statistischen Klassifizierung. Sie misst die Fähigkeit eines Modells, alle relevanten Fälle innerhalb eines Datensatzes zu identifizieren. Sie misst insbesondere den Anteil der tatsächlich positiven Fälle, die vom Modell korrekt als positiv vorhergesagt wurden. Der Recall, der auch als Sensitivität oder True-Positive-Rate (TPR) bezeichnet wird, ist besonders wichtig in Szenarien, in denen die Nichterkennung eines positiven Falles (ein Falsch-Negativ-Fall) erhebliche Folgen hat. Sie hilft dabei, die Frage zu beantworten: "Wie viele der tatsächlich positiven Fälle hat das Modell richtig erkannt?" Für die Bewertung von Modellen ist es wichtig, verschiedene Metriken zu kennen, und die Rückrufquote bietet eine wichtige Perspektive auf die Vollständigkeit.
Der Recall wird berechnet, indem die Anzahl der True Positives (TP) durch die Summe der True Positives und False Negatives (FN) geteilt wird. True Positives sind die Instanzen, die korrekt als positiv identifiziert wurden, während Falsches Negatives die positiven Instanzen sind, die das Modell fälschlicherweise als negativ klassifiziert hat. Ein hoher Recall-Wert zeigt an, dass das Modell die meisten positiven Instanzen in den Daten effektiv findet. Diese Kennzahl ist von grundlegender Bedeutung für die Bewertung der Modellleistung, insbesondere bei Aufgaben wie der Objekterkennung und der Bildklassifizierung. Tools und Plattformen wie Ultralytics HUB zeigen den Recall-Wert oft zusammen mit anderen Metriken während der Modellbewertung an.
Um den Recall zu verstehen, muss er oft mit anderen gängigen Bewertungskennzahlen verglichen werden:
Ein hoher Recall ist entscheidend für Anwendungen, bei denen das Übersehen positiver Instanzen kostspielig oder gefährlich ist. Der Schwerpunkt liegt auf der Minimierung von Falsch-Negativen.
Im Zusammenhang mit Computer Vision (CV) und Modellen wie Ultralytics YOLOist der Recall neben der Precision und der Mean Average Precision (mAP) eine wichtige Kennzahl, um die Leistung bei Aufgaben wie der Objekterkennung und der Segmentierung von Instanzen zu bewerten. Ein gutes Gleichgewicht zwischen Recall und Precision ist oft entscheidend für eine robuste Leistung in der Praxis. Wenn du zum Beispiel Modelle wie YOLOv8 und YOLO11 vergleichst, hilft der Recall dabei zu verstehen, wie gut jedes Modell alle Zielobjekte erkennt. Benutzer können eigene Modelle mit Frameworks wie PyTorch oder trainieren. TensorFlow trainieren und den Recall mit Tools wie Weights & Biases oder die integrierten Funktionen in Ultralytics HUB. Das Verständnis des Recalls hilft dabei, Modelle für bestimmte Anwendungsfälle zu optimieren, was möglicherweise die Abstimmung von Hyperparametern oder die Erkundung verschiedener Modellarchitekturen wie YOLOv10 oder das neueste YOLO11. Ressourcen wie die Ultralytics Dokumentation bieten umfassende Anleitungen zur Schulung und Bewertung.