Comprenda el rendimiento del modelo con una matriz de confusión. Explore las métricas, los usos en el mundo real y las herramientas para refinar la precisión de la clasificación de la IA.
Una matriz de confusión es una completa herramienta de medición del rendimiento utilizada en aprendizaje automático (AM) para evaluar la precisión de un modelo de clasificación. A diferencia de una simple puntuación de precisión que sólo indica el porcentaje de predicciones correctas, una matriz de confusión proporciona un desglose granular de cómo el modelo clasifica cada clase. Visualiza la discrepancia entre las etiquetas predichas y la verdad real. y la realidad, lo que permite a los desarrolladores determinar con exactitud dónde un modelo está "confundido" o comete errores sistemáticos. Este nivel de detalle de nivel de detalle es vital para perfeccionar complejos de visión por ordenador (VC ), como los construidos con Ultralytics YOLO11.
Una matriz de confusión desglosa las predicciones de un clasificador en cuatro categorías distintas, normalmente dispuestas en una cuadrícula. Estos componentes ayudan a identificar si un modelo adolece de tipos específicos de error, como por ejemplo "falsas alarmas" o "blancos perdidos":
Aunque las métricas generales son útiles para obtener una visión general de alto nivel, la matriz de confusión es esencial cuando se trata de conjuntos de datos desequilibrados. conjuntos de datos desequilibrados. Si un conjunto de datos contiene 95 gatos y 5 perros, un modelo que se limite a adivinar "gato" cada vez alcanza una precisión del 95%, pero es inútil para encontrar perros. pero es inútil para encontrar perros. La matriz de confusión revelaría inmediatamente este fallo al mostrar cero verdaderos positivos para la clase "perro".
Este desglose sirve de base para calcular otras métricas de rendimiento críticas. métricas de rendimiento. Analizando la matriz, los ingenieros pueden
La importancia de la matriz de confusión varía en función de la aplicación específica y del "coste" de diferentes errores.
En ultralytics calcula y guarda automáticamente matrices de confusión durante el proceso de validación.
validación. Esto permite a los usuarios visualizar el rendimiento en todas las clases de su conjunto de datos.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a dataset like COCO8
# This generates the confusion matrix in the 'runs/detect/val' directory
results = model.val(data="coco8.yaml")
# You can also programmatically access the matrix data
print(results.confusion_matrix.matrix)
Es importante distinguir la matriz de confusión de las métricas derivadas. Mientras que Accuracy, Precisión y Recall son resúmenes de un solo número, la matriz de confusión es la fuente de datos brutos a partir de la cual se calculan esas cifras. Proporciona la "imagen completa" en lugar de una instantánea. Además, en detección de objetos, la matriz suele interactuar con Intersección sobre Unión (IoU) para determinar qué se considera un Verdadero Positivo, lo que añade otro nivel de profundidad a la evaluación en tareas de visión por ordenador. tareas de visión por ordenador.