Glossaire

Précision

Découvrez l'importance de la précision dans l'apprentissage automatique, son calcul, les limites des ensembles de données déséquilibrés et les moyens d'améliorer les performances des modèles.

La précision est l'une des mesures d'évaluation les plus fondamentales et les plus intuitives de l'apprentissage automatique. Elle mesure la proportion de prédictions correctes faites par un modèle sur l'ensemble des prédictions faites. En raison de sa simplicité, la précision est souvent la première mesure à laquelle les développeurs s'intéressent pour se faire une idée générale des performances d'un modèle d'IA, en particulier dans les tâches de classification. Elle sert de bilan de santé rapide avant de se lancer dans des évaluations plus nuancées.

Applications dans le monde réel

La précision est un indicateur de performance clé dans de nombreux domaines où la classification est essentielle. En voici deux exemples :

  • Diagnostic médical : dans le domaine des soins de santé assistés par l'IA, un modèle conçu pour l'analyse d'images médicales peut être entraîné à classer des images radiographiques comme présentant ou non des signes de pneumonie. Une grande précision signifie que le modèle identifie correctement la présence ou l'absence de la maladie dans un pourcentage élevé de cas, fournissant ainsi une aide fiable aux radiologues.
  • Contrôle de la qualité de la fabrication : Dans la fabrication intelligente, un système de vision par ordinateur peut être déployé pour inspecter les produits sur un tapis roulant. Le modèle classe chaque article comme "défectueux" ou "non défectueux". Une grande précision garantit que les produits défectueux sont correctement identifiés pour être retirés, tout en minimisant le marquage incorrect des bons produits, ce qui a un impact direct sur l'efficacité et la qualité de la production.

Limites de la précision

Malgré son utilité, la précision peut être très trompeuse, en particulier lorsqu'il s'agit d'ensembles de données déséquilibrés. Un ensemble de données déséquilibré est un ensemble où le nombre d'exemples dans les différentes classes varie de manière significative. Par exemple, dans la détection des fraudes, les transactions légitimes sont beaucoup plus nombreuses que les transactions frauduleuses. Un modèle qui prédit toujours "non frauduleux" pourrait atteindre une précision de plus de 99 %, mais serait totalement inutile pour l'objectif qu'il s'est fixé. En effet, il ne parvient pas à identifier les cas rares mais critiques. Ce scénario met en évidence le paradoxe de la précision, où un score de précision élevé donne une fausse idée de l'efficacité d'un modèle.

Précision par rapport à d'autres paramètres

Pour obtenir une image complète des performances d'un modèle, il est essentiel de prendre en compte d'autres paramètres que la précision.

  • Précision: Mesure la proportion de prédictions positives qui sont effectivement correctes. Elle répond à la question suivante : "Parmi toutes les prédictions que j'ai faites pour la classe positive, combien étaient correctes ?" Une grande précision est essentielle lorsque le coût d'un faux positif est élevé.
  • Rappel: Également connu sous le nom de sensibilité, cet indicateur mesure la proportion de cas positifs réels qui ont été correctement identifiés. Elle répond à la question suivante : "Sur l'ensemble des cas positifs réels, combien mon modèle en a-t-il trouvé ?" Un taux de rappel élevé est essentiel lorsque le coût d'un faux négatif est important, par exemple dans le cadre d'un dépistage médical.
  • F1-Score: Il s'agit de la moyenne harmonique de la précision et du rappel, fournissant un score unique qui équilibre les deux. Il est particulièrement utile pour évaluer les modèles sur des ensembles de données déséquilibrés où les faux positifs et les faux négatifs sont importants.
  • Matrice de confusion: Tableau qui visualise les performances d'un modèle de classification en indiquant le nombre de vrais positifs, de vrais négatifs, de faux positifs et de faux négatifs. Il fournit les données nécessaires au calcul de l'exactitude, de la précision et du rappel.
  • Précision moyenne (mAP): Pour les tâches plus complexes telles que la détection d'objets, la mAP est la mesure standard. Elle évalue non seulement l'exactitude de la classification, mais aussi la précision de localisation des boîtes de délimitation prédites selon différents niveaux de confiance. Pour une compréhension plus approfondie, vous pouvez explorer diverses comparaisons de modèles.

Améliorer la précision des modèles

Plusieurs techniques peuvent contribuer à améliorer la précision du modèle, bien qu'elles impliquent souvent des compromis avec d'autres mesures ou des coûts de calcul :

Des ressources de consultation telles que Model Training Tips peuvent fournir des conseils pratiques. Des plateformes comme Ultralytics HUB permettent aux utilisateurs d'entraîner des modèles et de suivre facilement la précision ainsi que d'autres mesures clés, souvent visualisées à l'aide d'outils comme TensorBoard. Il est possible de suivre les progrès réalisés dans ce domaine grâce à des ressources telles que le Stanford AI Index Report ou en parcourant les ensembles de données sur Papers With Code. Des frameworks comme PyTorch et TensorFlow sont couramment utilisés pour construire et entraîner ces modèles.

En conclusion, si la précision est une mesure précieuse et intuitive pour évaluer les performances des modèles d'IA, elle doit rarement être utilisée de manière isolée. Il est essentiel de prendre en compte les objectifs spécifiques de la tâche de ML et la nature des données, en particulier les déséquilibres potentiels ou les coûts variables des erreurs, pour sélectionner les métriques d'évaluation les plus appropriées. L'utilisation de techniques d'IA explicable (XAI) peut également fournir des informations plus approfondies que les valeurs d'une seule métrique.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers