Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Précision

Découvrez les principes fondamentaux de la précision dans l'IA. Apprenez à évaluer les performances, à éviter le paradoxe de la précision et à mesurer les résultats à l'aide Ultralytics .

La précision sert de référence fondamentale dans l'évaluation des systèmes d'intelligence artificielle, quantifiant le pourcentage de prédictions correctes d'un modèle par rapport au nombre total de prédictions. Dans le contexte de l' apprentissage automatique, et plus particulièrement de l' apprentissage supervisé, cette mesure fournit un aperçu général de l'efficacité avec laquelle un algorithme s'aligne sur la vérité terrain fournie pendant le processus d'entraînement. Bien qu'il s'agisse de la mesure de performance la plus intuitive (répondant à la question simple « À quelle fréquence le modèle est-il correct ? »), elle sert d'indicateur principal de la fiabilité d'un système avant que les développeurs ne se plongent dans des mesures plus granulaires .

Les nuances de l'évaluation des performances

Si la précision est un excellent point de départ, elle est particulièrement efficace lorsqu'elle est appliquée à des données d'entraînement équilibrées où toutes les classes sont représentées de manière égale. Par exemple, dans une tâche standard de classification d'images consistant à distinguer les chats des chiens, si l'ensemble de données contient 500 images de chaque, la précision est une mesure fiable. Cependant, des difficultés apparaissent avec des ensembles de données déséquilibrés, ce qui conduit au « paradoxe de la précision ».

Si un modèle est formé à la détection des fraudes alors que seulement 1 % des transactions sont frauduleuses, un modèle qui se contente de prédire que toutes les transactions sont « légitimes » atteindrait une précision de 99 %, mais échouerait complètement dans sa tâche. Pour atténuer ce problème, les ingénieurs utilisent souvent Ultralytics pour visualiser la distribution des ensembles de données et s'assurer que les modèles ne se contentent pas de mémoriser la classe majoritaire.

Distinguer la précision des termes connexes

Pour bien comprendre les performances d'un modèle, il est essentiel de distinguer la précision d'autres mesures similaires :

  • Précision: This measures the quality of positive predictions. It asks, "Of all the instances predicted as positive, how many were actually positive?"
  • Rappel: également appelé sensibilité, cet indicateur mesure la capacité du modèle à trouver tous les cas pertinents. Il pose la question suivante : « Parmi tous les cas positifs réels, combien le modèle a-t-il correctement identifiés ? »
  • F1-Score: Il s'agit de la moyenne harmonique de la précision et du rappel, fournissant un score unique qui équilibre les deux, ce qui est particulièrement utile pour les distributions de classes inégales .

Alors que l'exactitude fournit une vision globale de la justesse, la précision et le rappel offrent des informations sur des types spécifiques d' erreurs, telles que les faux positifs ou les faux négatifs.

Applications concrètes

L'utilité de la précision s'étend à divers secteurs, validant la fiabilité de la vision par ordinateur et des modèles prédictifs dans des environnements critiques.

  • Diagnostic médical : dans le domaine de l' analyse d'images médicales, des modèles sont utilisés pour classify ou les IRM. Un modèle classant les scans comme « sains » ou « pathologiques » doit être très précis pour garantir que les patients reçoivent un diagnostic correct. Les innovations en matière d' IA dans le domaine de la santé dépendent fortement d'une validation rigoureuse afin de minimiser les erreurs automatisées.
  • Contrôle qualité dans la fabrication : les systèmes automatisés dans la fabrication intelligente utilisent l'inspection visuelle pour identifier les défauts sur les chaînes de montage. La haute précision garantit que seuls les produits sans défaut sont expédiés, ce qui réduit les déchets et les coûts de garantie. En utilisant la détection d'objets pour repérer les défauts, les usines maintiennent automatiquement les normes de production.

Mesure de la précision dans le code

Dans des scénarios pratiques utilisant Python, les développeurs peuvent facilement mesurer la précision d'un modèle à l'aide de bibliothèques établies. L'exemple suivant montre comment valider un modèle de classification YOLO26 afin d'obtenir sa précision top-1. La précision top-1 fait référence à la fréquence à laquelle la prédiction la plus probable du modèle correspond à l'étiquette correcte .

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Validate the model on a standard dataset (e.g., MNIST)
metrics = model.val(data="mnist")

# Print the Top-1 Accuracy
print(f"Top-1 Accuracy: {metrics.top1:.4f}")

Stratégies d'amélioration

Lorsqu'un modèle souffre d'un manque de précision, plusieurs techniques peuvent être utilisées pour améliorer ses performances. Les ingénieurs ont souvent recours à l'augmentation des données pour accroître artificiellement la diversité de l'ensemble d'apprentissage, empêchant ainsi le modèle de s'adapter de manière excessive. De plus, le réglage des hyperparamètres, qui consiste à ajuster des paramètres tels que le taux d'apprentissage, peut avoir un impact significatif sur la convergence. Pour les tâches complexes, le transfert d'apprentissage permet à un modèle d'exploiter les connaissances d'un vaste ensemble de données pré-entraîné (comme ImageNet) pour atteindre une plus grande précision sur un ensemble de données plus petit et spécifique.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant