Comprendi le prestazioni del modello con una matrice di confusione. Esplora le metriche, gli usi nel mondo reale e gli strumenti per perfezionare l'accuratezza della classificazione dell'IA.
Una matrice di confusione è uno strumento di misurazione delle prestazioni per i problemi di classificazione dell'apprendimento automatico in cui l'output può essere di due o più classi. Si tratta di una tabella con quattro diverse combinazioni di valori previsti e valori effettivi, che funge da elemento fondamentale per la visualizzazione dei dati nella valutazione del modello. A differenza della semplice accuratezza, che può essere fuorviante se il set di dati è sbilanciato, una matrice di confusione fornisce un'analisi dettagliata dei punti in cui un modello di visione artificiale (CV) commette errori. Confrontando le previsioni con le etichette di verità di base, gli sviluppatori possono determinare se il sistema sta confondendo due classi specifiche o non riesce a detect completamente detect oggetto.
La matrice stessa è tipicamente divisa in quattro quadranti per la classificazione binaria, sebbene si espanda per problemi multi-classe come quelli gestiti da Ultralytics . Queste quattro componenti rappresentano l' intersezione tra ciò che il modello ha previsto e ciò che esiste effettivamente nell'immagine.
I numeri grezzi in una matrice di confusione vengono utilizzati per calcolare metriche più avanzate che descrivono le prestazioni del modello. La comprensione di questi derivati è essenziale per ottimizzare le reti neurali.
Il costo specifico degli errori definito dalla matrice di confusione determina il modo in cui i modelli vengono ottimizzati per i diversi settori industriali.
Nel campo dell' IA nel settore sanitario, la matrice di confusione è una questione di sicurezza. Quando si addestra un modello per l' analisi di immagini mediche per detect , un falso negativo (non rilevare un tumore) è molto peggio di un falso positivo (segnalare una macchia benigna per la revisione del medico). Pertanto, gli ingegneri danno la priorità al richiamo rispetto alla precisione in queste matrici per garantire che nessun potenziale rischio per la salute venga trascurato.
Al contrario, nella controllo di qualità della produzione, l'efficienza è fondamentale. Se un sistema che classifica i componenti della catena di montaggio genera troppi falsi positivi (segnalando i componenti buoni come difettosi), provoca inutili sprechi e rallenta la produzione. In questo caso, la matrice di confusione aiuta gli ingegneri a messa a punto del modello per massimizzare la precisione, assicurando che ciò che viene scartato sia veramente difettoso, ottimizzando i flussi di lavoro automatizzati di machine learning .
Quando si utilizzano framework moderni, la generazione di questa matrice fa spesso parte della pipeline di convalida standard. L'esempio
seguente mostra come convalidare un
Modello YOLO26 e accedere ai dati della matrice di confusione
utilizzando il ultralytics pacchetto.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# This automatically generates and plots the confusion matrix
metrics = model.val(data="coco8.yaml")
# Access the confusion matrix object directly
print(metrics.confusion_matrix.matrix)
È importante distinguere la matrice di confusione da termini di valutazione simili.