Comprenez les performances du modèle avec une matrice de confusion. Explorez les métriques, les utilisations concrètes et les outils pour affiner la précision de la classification de l'IA.
Une matrice de confusion est un outil complet de mesure des performances utilisé en l 'apprentissage machine (ML) pour évaluer la précision d'un d'un modèle de classification. Contrairement à un simple score de précision, qui n'indique que le pourcentage de prédictions correctes, une matrice de confusion fournit une ventilation granulaire de la façon dont le modèle catégorise chaque classe. comment le modèle catégorise chaque classe. Elle visualise l'écart entre les étiquettes prédites et la réalité du terrain. Elle visualise l'écart entre les étiquettes prédites et la réalité du terrain, ce qui permet aux développeurs de repérer exactement les endroits où un modèle est "confus" ou commet des erreurs systématiques. Ce niveau de détail Ce niveau de détail est essentiel pour affiner les systèmes complexes de vision par ordinateur, tels que ceux construits avec Ultralytics YOLO11.
Une matrice de confusion répartit les prédictions d'un classificateur en quatre catégories distinctes, généralement disposées en grille. en forme de grille. Ces composantes permettent d'identifier si un modèle souffre de types d'erreurs spécifiques, tels que "fausses alarmes" ou "cibles manquées" :
Si les mesures générales sont utiles pour obtenir des aperçus de haut niveau, la matrice de confusion est essentielle lorsqu'il s'agit d'ensembles de données déséquilibrés. des ensembles de données déséquilibrés. Si un ensemble de données contient 95 chats et 5 chiens, un modèle qui se contente de deviner "chat" à chaque fois atteint une précision de 95 %, mais est inutile pour trouver des chiens. atteint une précision de 95 %, mais est inutile pour trouver des chiens. La matrice de confusion révélerait immédiatement cet échec en affichant zéro vrais positifs pour la classe "chien".
Cette ventilation sert de base au calcul d'autres indicateurs de performance essentiels. de la performance. En analysant la matrice matrice, les ingénieurs peuvent déduire :
L'importance de la matrice de confusion varie en fonction de l'application spécifique et du "coût" des différentes erreurs. différentes erreurs.
Le ultralytics calcule et enregistre automatiquement les matrices de confusion au cours du processus de validation.
validation. Cela permet aux utilisateurs de visualiser les performances pour toutes les classes de leur ensemble de données.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a dataset like COCO8
# This generates the confusion matrix in the 'runs/detect/val' directory
results = model.val(data="coco8.yaml")
# You can also programmatically access the matrix data
print(results.confusion_matrix.matrix)
Il est important de distinguer la matrice de confusion des mesures dérivées. Alors que les mesures Accuracy, précision et le rappel sont des résumés à un seul chiffre, la matrice de confusion est la source de données brutes à partir de laquelle ces chiffres sont calculés. matrice de confusion est la source de données brutes à partir de laquelle ces chiffres sont calculés. Elle fournit la "vue d'ensemble" plutôt qu'un instantané. "Elle fournit une image globale plutôt qu'un instantané. En outre, dans la détection d'objets, la matrice interagit souvent avec Intersection sur Union (IoU) pour déterminer ce qui est considéré comme un vrai positif, ce qui ajoute une autre couche de profondeur à l'évaluation dans les tâches de vision par ordinateur. dans les tâches de vision par ordinateur.