Glossaire

Exactitude

Découvre l'importance de la précision dans l'apprentissage automatique, son calcul, ses limites avec les ensembles de données déséquilibrés et les moyens d'améliorer les performances des modèles.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La précision est l'une des mesures les plus fondamentales et les plus intuitives utilisées pour évaluer les performances des modèles d'apprentissage automatique (ML), en particulier dans les tâches de classification au sein de l'intelligence artificielle (IA) et de la vision par ordinateur (VA). Elle représente la proportion de prédictions correctes faites par le modèle d'IA sur le nombre total de prédictions. Bien qu'elle soit facile à comprendre et à calculer, se fier uniquement à la précision peut parfois être trompeur, en particulier lorsqu'il s'agit de certains types d'ensembles de données ou d'exigences de problèmes spécifiques.

Comment la précision est-elle calculée ?

La précision est calculée en divisant le nombre de prédictions correctes (à la fois les vrais positifs et les vrais négatifs) par le nombre total de prédictions effectuées. Par exemple, si un modèle identifie correctement 90 images sur 100, sa précision est de 90 %. Cette simplicité en fait un point de départ populaire pour évaluer la performance des modèles.

L'importance de l'IA et de l'apprentissage automatique

La précision fournit une mesure directe de la fréquence à laquelle un modèle est correct dans l'ensemble. Elle est largement utilisée au cours des étapes initiales du développement et de la formation des modèles pour obtenir une idée générale des performances. Une grande précision est souvent un objectif principal pour de nombreuses applications, indiquant que le modèle se généralise bien à de nouvelles données inédites. De nombreux modèles de pointe, tels que Ultralytics YOLO pour la détection d'objets, s'efforcent d'atteindre une grande précision tout en équilibrant d'autres facteurs comme la vitesse. Tu peux voir des comparaisons comme YOLO11 vs YOLOv8 qui mettent souvent en avant des critères de précision.

Limites de la précision

Malgré son caractère intuitif, la précision présente des limites importantes :

  • Ensembles de données déséquilibrés : La précision peut être un mauvais indicateur de performance lorsqu'il s'agit de données déséquilibrées, où une classe est nettement plus nombreuse que les autres. Par exemple, lors de la détection d'une maladie rare (par exemple, une prévalence de 1 %), un modèle qui prédit toujours "pas de maladie" atteint une précision de 99 %, mais n'identifie aucun cas réel, ce qui le rend inutile. Cela souligne l'importance de prendre en compte les biais potentiels de l'ensemble des données.
  • Ignorer les types d'erreurs : La précision traite toutes les erreurs de la même façon. Cependant, dans de nombreux scénarios du monde réel, le coût des différentes erreurs varie. Par exemple, une erreur de classification d'une tumeur maligne comme étant bénigne (faux négatif) est souvent beaucoup plus critique que la classification d'une tumeur bénigne comme étant maligne (faux positif).
  • Paradoxe de la précision : Dans certaines situations, un modèle moins précis selon la définition standard pourrait en fait être plus utile dans la pratique. C'est ce qu'on appelle le paradoxe de la précision.

Distinguer la précision des autres mesures

En raison des limites de la précision, en particulier avec des données déséquilibrées ou des coûts d'erreur variables, d'autres mesures sont souvent préférées ou utilisées en parallèle :

  • Précision: Mesure la proportion d'identifications positives qui étaient effectivement correctes. Une grande précision est cruciale lorsque le coût des faux positifs est élevé (par exemple, les filtres anti-spam qui marquent des courriels importants comme étant des spams).
  • Rappel (sensibilité): Mesure la proportion de vrais positifs qui ont été correctement identifiés. Un rappel élevé est vital lorsque le coût des faux négatifs est élevé (par exemple, passer à côté d'un diagnostic).
  • F1-Score: La moyenne harmonique de la précision et du rappel, offrant un équilibre entre les deux. Il est utile lorsque les faux positifs et les faux négatifs sont importants.
  • Précision moyenne (mAP): Une métrique commune dans la détection d'objets qui prend en compte à la fois la précision de la classification et la précision de la localisation (IoU) à travers différents niveaux de rappel.
  • Matrice de confusion: Un tableau qui visualise les performances d'un algorithme de classification, montrant les vrais positifs, les vrais négatifs, les faux positifs et les faux négatifs, ce qui aide à calculer la précision, le rappel et l'exactitude.
  • Courbes ROC et AUC : Elles permettent de visualiser le compromis entre le taux de vrais positifs (Rappel) et le taux de faux positifs pour différents paramètres de seuil.

Comprendre ces différentes mesures de performanceYOLO permet une évaluation plus nuancée de la performance du modèle adaptée à des besoins spécifiques.

Applications IA/ML dans le monde réel

  1. Analyse d'images médicales : Dans des tâches comme la détection de tumeurs à l'aide de YOLO11, bien que la précision globale soit prise en compte, des métriques comme le rappel (sensibilité) sont souvent prioritaires pour minimiser le risque de passer à côté de tumeurs réelles (faux négatifs). Les solutions en matière d'IA dans le domaine de la santé doivent soigneusement équilibrer ces métriques.
  2. Véhicules autonomes : Pour les solutions d'IA dans l'automobile, les modèles de détection d'objets doivent être très précis dans l'identification des piétons, des véhicules et des obstacles. Cependant, il ne suffit pas de mesurer la précision globale ; des mesures telles que mAP sont essentielles pour garantir une classification correcte et une localisation précise( prédiction de laboîte englobante ) pour la sécurité.

Améliorer la précision du modèle

Plusieurs techniques peuvent aider à améliorer la précision du modèle, bien qu'elles impliquent souvent des compromis avec d'autres mesures ou des coûts de calcul :

Des ressources de consultation comme Model Training Tips peuvent fournir des conseils pratiques. Des plateformes comme Ultralytics HUB permettent aux utilisateurs de former des modèles et de suivre facilement la précision ainsi que d'autres mesures clés, souvent visualisées à l'aide d'outils comme TensorBoard. Il est possible de suivre les progrès réalisés dans le domaine grâce à des ressources telles que le Stanford AI Index Report ou en parcourant des ensembles de données sur Papers With Code. Des outils comme PyTorch (voir le site officiel) et TensorFlow (voir le site officiel) sont couramment utilisés pour construire et entraîner ces modèles.

En conclusion, bien que la précision soit une mesure précieuse et intuitive pour évaluer les performances des modèles d'IA, elle doit rarement être utilisée de façon isolée. Il est essentiel de prendre en compte les objectifs spécifiques de la tâche de ML et la nature des données, en particulier les déséquilibres potentiels ou les coûts variables des erreurs, pour sélectionner les métriques d'évaluation les plus appropriées comme la précision, le rappel, le F1-score ou le mAP. L'utilisation de techniques d'IA explicable (XAI) peut également fournir des informations plus approfondies que les valeurs d'une seule métrique.

Tout lire