Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Rappel

Découvrez ce qu'est le rappel dans l'apprentissage automatique, pourquoi il est important et comment il garantit que les modèles d'IA capturent efficacement les instances positives critiques.

Le rappel, également appelé sensibilité ou taux de vrais positifs, est une métrique d'évaluation fondamentale dans l'apprentissage automatique (ML) et les statistiques. Il mesure la capacité d'un modèle à identifier correctement toutes les instances pertinentes dans un ensemble de données. En termes simples, le rappel répond à la question suivante : « Parmi toutes les instances positives réelles, combien le modèle a-t-il correctement prédit comme positives ? » Un score de rappel élevé indique que le modèle est efficace pour trouver ce qu'il est censé trouver, minimisant ainsi le nombre de cas positifs manqués (faux négatifs). Cette métrique est particulièrement essentielle dans les applications où le fait de ne pas détecter un cas positif a des conséquences importantes.

L'importance d'un rappel élevé

Dans de nombreux scénarios du monde réel, le coût d'un faux négatif (manquer une détection) est beaucoup plus élevé que le coût d'un faux positif (une fausse alerte). C'est là que la priorité à un rappel élevé devient essentielle. Par exemple, dans des tâches telles que l'analyse d'images médicales ou la détection de fraude, un modèle à rappel élevé garantit qu'autant de cas réels que possible sont capturés pour un examen plus approfondi, même si cela signifie que certains non-cas sont incorrectement signalés.

  • Diagnostic médical : Dans un système basé sur l’IA pour la détection du cancer à partir d’images médicales, un modèle à rappel élevé est essentiel. Il est de loin préférable que le système signale un patient sain pour examen par un radiologue (faux positif) plutôt que de manquer une tumeur cancéreuse (faux négatif), ce qui pourrait retarder un traitement vital. De nombreuses solutions d’IA dans le domaine de la santé sont optimisées pour une sensibilité élevée.
  • Sécurité et surveillance : Pour un système d'alarme de sécurité conçu pour détecter les intrus, un rappel élevé est primordial. Le système doit identifier toute menace potentielle, même s'il confond occasionnellement un animal errant avec un intrus. Le fait de ne pas détecter une véritable violation de la sécurité rendrait le système inefficace.

Rappel dans les modèles Ultralytics YOLO

Dans le contexte de la vision par ordinateur (CV) et des modèles comme Ultralytics YOLO, le Rappel est une métrique clé utilisée avec la Précision et la précision moyenne (mAP) pour évaluer les performances sur des tâches comme la détection d'objets et la segmentation d'instances. Atteindre un bon équilibre entre le Rappel et la Précision est souvent essentiel pour des performances robustes dans le monde réel. Par exemple, lors de la comparaison de modèles comme YOLOv8 vs YOLO11, le Rappel aide à comprendre dans quelle mesure chaque modèle identifie tous les objets cibles. Les utilisateurs peuvent entraîner des modèles personnalisés à l'aide de frameworks comme PyTorch ou TensorFlow et suivre le Rappel à l'aide d'outils comme Weights & Biases ou les fonctionnalités intégrées dans Ultralytics HUB. La compréhension du Rappel aide à optimiser les modèles pour des cas d'utilisation spécifiques, impliquant potentiellement le réglage des hyperparamètres ou l'exploration de différentes architectures de modèles comme YOLOv10 ou le dernier YOLO11. Des ressources comme la documentation Ultralytics offrent des guides complets sur l'entraînement et l'évaluation.

Rappel vs. autres métriques

Il est important de différencier le rappel des autres métriques d'évaluation courantes.

  • Précision : Alors que le Rappel se concentre sur la recherche de tous les échantillons positifs, la Précision mesure l'exactitude des prédictions positives faites. Elle répond à la question : « Parmi toutes les instances que le modèle a prédites comme positives, combien étaient réellement positives ? » Il existe souvent un compromis entre la Précision et le Rappel ; augmenter l'un peut diminuer l'autre. Ce concept est connu sous le nom de compromis précision-rappel.
  • Précision : Mesure le pourcentage global de prédictions correctes (à la fois positives et négatives). La précision peut être une mesure trompeuse pour les ensembles de données déséquilibrés, où une classe est beaucoup plus nombreuse que l'autre. Par exemple, dans un ensemble de données avec 99 % d'échantillons négatifs, un modèle qui prédit tout comme négatif atteint une précision de 99 %, mais a un rappel nul pour la classe positive.
  • Score F1 : Il s'agit de la moyenne harmonique de la précision et du rappel. Le score F1 fournit un nombre unique qui équilibre les deux métriques, ce qui en fait une mesure utile lorsque vous devez tenir compte à la fois des faux positifs et des faux négatifs. Il est souvent utilisé lorsqu'il existe une distribution de classe inégale.
  • Aire sous la courbe (AUC) : Spécifiquement pour la classification binaire, la courbe ROC (Receiver Operating Characteristic) trace le taux de vrais positifs (rappel) par rapport au taux de faux positifs. L'AUC fournit un score unique résumant les performances du modèle sur tous les seuils de classification. L'aire sous la courbe Precision-Recall (AUC-PR) est souvent plus informative pour les tâches de classification déséquilibrées.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers