Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Recall (Trefferquote)

Erfahren Sie, was Recall im maschinellen Lernen ist, warum er wichtig ist und wie er sicherstellt, dass KI-Modelle kritische positive Instanzen effektiv erfassen.

Recall, also known as sensitivity or the true positive rate, is a fundamental performance metric in machine learning that measures the ability of a model to identify all relevant instances within a dataset. In the context of object detection or classification, it specifically answers the question: "Out of all the actual positive cases, how many did the model correctly find?" Achieving high recall is critical in scenarios where missing a positive instance—often referred to as a false negative—carries significant consequences. Unlike accuracy, which can be misleading when dealing with imbalanced data, recall provides a focused view on the model's effectiveness at "capturing" the target class.

Die Bedeutung einer hohen Trefferquote (Recall)

In many artificial intelligence applications, the cost of failing to detect an object is far higher than the cost of a false alarm. A model optimized for recall minimizes false negatives, ensuring that the system casts a wide enough net to catch potential threats, anomalies, or critical conditions. This often involves a trade-off, as increasing recall can sometimes lead to a lower precision score, meaning the model might flag more non-relevant items as positive. Understanding this balance is key to developing robust machine learning solutions.

Anwendungsfälle in der Praxis

Rückruf ist die treibende Kennzahl hinter vielen sicherheitskritischen KI-Lösungen. Hier sind zwei prominente Beispiele, bei denen Sensibilität Vorrang hat:

  • Medizinische Diagnostik: Bei der medizinischen Bildanalyse, wie beispielsweise der Untersuchung von Röntgenbildern auf frühe Anzeichen einer Erkrankung, ist eine hohe Wiederauffindbarkeit unverzichtbar. Wenn eine KI im Gesundheitswesen zur detect von Tumoren eingesetzt wird, ist es weitaus besser, wenn das System einen verdächtigen Schatten markiert, der sich als gutartig herausstellt (ein falsch positives Ergebnis), als einen bösartigen Tumor vollständig zu übersehen. Ärzte verlassen sich auf diese Tools als Sicherheitsnetz, um sicherzustellen, dass keine potenziellen Gesundheitsrisiken übersehen werden.
  • Sicherheit und Überwachung: Bei einem Sicherheitsalarmsystem besteht das primäre Ziel darin, detect Einbruchsversuch detect . Ein für hohe Wiedererkennungsrate optimiertes System stellt sicher, dass der Alarm ausgelöst wird, wenn eine Person einen gesperrten Bereich betritt . Dies kann zwar gelegentlich zu Fehlalarmen durch Wildtiere führen, ist jedoch besser, als wenn das System detect tatsächlichen Eindringling nicht detect . Objekterkennungsmodelle in diesen Szenarien sind so abgestimmt, dass sie eine maximale Empfindlichkeit gegenüber potenziellen Bedrohungen gewährleisten.

Recall vs. Precision

It is essential to distinguish recall from its counterpart, precision. While recall measures the quantity of relevant cases found (completeness), precision measures the quality of the positive predictions (exactness).

  • Recall: Focuses on avoiding missed detections. "Did we find all the apples?"
  • Precision: Focuses on minimizing false alarms. "Are all the things we called apples actually apples?"

These two metrics often share an inverse relationship, visualized through a Precision-Recall curve. To evaluate the overall balance between them, developers often look at the F1-score, which is the harmonic mean of both. In imbalanced datasets, looking at recall alongside the confusion matrix gives a much clearer picture of performance than accuracy alone.

Messung des Rückrufs mit Ultralytics YOLO

When training models like the cutting-edge YOLO26, recall is automatically computed during the validation phase. The framework calculates recall for each class and the mean Average Precision (mAP), helping developers gauge how well the model finds objects.

Mit Python können Sie ein trainiertes Modell ganz einfach validieren und seine Recall-Metriken anzeigen. Dieser Ausschnitt zeigt, wie Sie ein Modell laden und seine Leistung anhand eines Standarddatensatzes überprüfen können:

from ultralytics import YOLO

# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")

# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")

# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")

This code utilizes the Ultralytics API to run validation. If the recall is lower than required for your project, you might consider techniques like data augmentation to create more varied training examples or hyperparameter tuning to adjust the model's sensitivity. Using the Ultralytics Platform can also streamline the process of managing datasets and tracking these metrics over multiple training runs.

Improving Model Recall

To boost a model's recall, data scientists often adjust the confidence threshold used during inference. Lowering the threshold makes the model more "optimistic," accepting more predictions as positive, which increases recall but may decrease precision. Additionally, collecting more diverse training data helps the model learn to recognize hard negatives and obscure instances. For complex tasks, employing advanced architectures like Transformer blocks or exploring ensemble methods can also improve the system's ability to detect subtle features that simpler models might miss.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten