Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Rappel

Découvrez ce qu'est le rappel dans l'apprentissage automatique, pourquoi il est important et comment il garantit que les modèles d'IA capturent efficacement les instances positives critiques.

Le rappel, également connu sous le nom de sensibilité ou de taux de vrais positifs, est une mesure d'évaluation fondamentale utilisée pour mesurer l'efficacité d'un système d'information. d'évaluation fondamentale utilisée pour mesurer la la capacité d'un modèle d'apprentissage machine (ML) à à identifier toutes les instances pertinentes au sein d'un ensemble de données. En substance, le rappel répond à la question suivante : "Sur l'ensemble des cas positifs réels, combien le modèle a-t-il detect avec succès ?" Cette mesure est particulièrement axée sur minimiser les faux négatifs, en veillant à ce que des événements ou des objets critiques ne soient pas négligés. Alors que la la précision donne un aperçu général des performances, le rappel devient le principal indicateur de succès dans les scénarios où manquer une cible a un coût plus élevé qu'une fausse alarme. alarme.

L'importance du rappel dans l'IA

Dans de nombreuses tâches de vision par ordinateur et d'analyse de données, le coût des erreurs n'est pas uniforme. le coût des erreurs n'est pas uniforme. Ne pas detect un cas positif (erreur de type II) peut parfois être dangereux ou coûteux. dangereuse ou coûteuse. Un taux de rappel élevé permet au système d'élargir son champ d'action afin de capturer le plus grand nombre possible de vrais cas positifs. de vrais positifs. Cet objectif est souvent atteint en ajustant le seuil de confiance lors de l'inférence. seuil de confiance pendant l'inférence ; l'abaissement du seuil L'abaissement du seuil augmente généralement le rappel mais peut entraîner un plus grand nombre de faux positifs.

Les ingénieurs analysent souvent la courbe précision-rappel pour comprendre les compromis inhérents à leurs modèles. Un modèle avec un rappel de 100 % a trouvé chaque objet cible, bien qu'il puisse aussi avoir incorrectement étiqueté certains bruits de fond comme étant des cibles.

Applications concrètes

Le rappel est l'élément moteur de nombreuses solutions d'IA essentielles à la sécurité. de sécurité. Voici deux exemples marquants où le rappel la priorité :

  • Diagnostic médical : Dans le domaine de l'analyse d'images médicales, comme le dépistage de maladies au moyen de radiographies ou d'IRM, un taux de rappel élevé n'est pas négociable. Si un modèle d'IA pour la détection des tumeurs analyse des scanners, il est de loin préférable que le système signale une ombre suspecte qui s'avère bénigne (un faux positif) que de passer complètement à côté d'une tumeur maligne (faux négatif). Les médecins s'appuient sur ces outils d L 'IA dans les outils de soins de santé agit comme un filet de sécurité, en veillant à ce qu'aucun risque potentiel pour la santé ne soit ignoré.
  • Sécurité et surveillance : Pour un système d'alarme de sécurité, l'objectif principal est de detect toute tentative d'intrusion. Un système optimisé pour un taux de rappel élevé garantit le déclenchement de l'alarme dès qu'une personne pénètre dans une zone restreinte. l'alarme se déclenche. Bien que cela puisse entraîner des fausses alarmes occasionnelles causées par des animaux ou des ombres, il est préférable que le système ne détecte pas une intrusion réelle. d'animaux ou d'ombres, il est préférable que le système ne detect pas un intrus réel. Dans ces scénarios, les modèles de détection d'objets sont Les modèles de détection d'objets dans ces scénarios sont réglés de manière à garantir une sensibilité maximale aux menaces potentielles.

Rappel par rapport à la précision et à l'exactitude

Il est essentiel de comprendre la différence entre le rappel et les mesures connexes pour interpréter les résultats de l'évaluation des modèles. l 'évaluation des modèles.

  • Rappel vs. précision : Alors que le rappel mesure la quantité de vrais positifs trouvés, la précision mesure la qualité ou la fiabilité de ces vrais positifs, la précision mesure la qualité ou la fiabilité de ces prédictions positives. La précision pose la question suivante : "Parmi tous les éléments étiquetés comme positifs, combien étaient réellement positifs ?" Il y a souvent un compromis à faire : augmenter le rappel en acceptant des détections moins fiables réduit généralement la précision. diminue généralement la précision. Le score F1 est une mesure qui combine les deux pour fournir une vue d'ensemble équilibrée. les deux pour fournir une vue équilibrée.
  • Rappel et précision : La précision mesure le pourcentage global de prédictions correctes (positives et négatives). et négatives). Cependant, sur des ensembles de données Cependant, sur des ensembles de données déséquilibrés, tels qu'une chaîne de fabrication où 99 % des pièces sont bonnes et seulement 1 % sont défectueuses, un modèle pourrait simplement prédire "bon" à chaque fois et atteindre une précision de 99 % tout en ayant un rappel de 0 % pour les défauts. un modèle pourrait simplement prédire "bon" à chaque fois et atteindre une précision de 99% tout en ayant 0% de rappel pour les défauts. Dans de telles tâches de détection d'anomalies, le rappel est une mesure beaucoup plus beaucoup plus honnête que la précision.

Mesurer le rappel avec Ultralytics YOLO

Lors de l'élaboration de modèles à l'aide de l'outil Ultralytics YOLO11 le rappel est automatiquement calculé automatiquement calculé au cours du processus de validation. Le cadre calcule le rappel pour chaque classe et la précision moyenne (mAP). précision moyenne (mAP), ce qui aide les les développeurs à évaluer l'efficacité du modèle à trouver des objets.

Vous pouvez facilement valider un modèle formé et visualiser ses mesures de rappel à l'aide de Python:

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")

# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")

# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")

Cet extrait de code charge un YOLO11 et exécute la validation sur le jeu de donnéesCOCO8 . Le résultat fournit une ventilation complète des performances, vous permettant d'évaluer si votre modèle répond aux exigences de rappel nécessaires pour votre application spécifique. nécessaires pour votre application spécifique. Si le rappel est trop faible, vous pouvez envisager des techniques telles que l'augmentation des données ou l 'ajustement des hyperparamètres pour améliorer la sensibilité.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant