Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Matriz de Confusão

Entenda o desempenho do modelo com uma matriz de confusão. Explore métricas, usos no mundo real e ferramentas para refinar a precisão da classificação de IA.

Uma matriz de confusão é uma ferramenta de medição de desempenho para problemas de classificação de aprendizagem automática em que o resultado pode ser duas ou mais classes. É uma tabela com quatro combinações diferentes de valores previstos e reais, servindo como um elemento fundamental para a visualização de dados na avaliação do modelo. Ao contrário da precisão simples, que pode ser enganosa se o conjunto de dados estiver desequilibrado, uma matriz de confusão fornece uma análise granular de onde um modelo de visão computacional (CV) está a cometer erros. Ao comparar as previsões com os rótulos de verdade fundamental, os programadores podem determinar se o sistema está a confundir duas classes específicas ou a falhar completamente na detect objeto.

Componentes principais da matriz

A matriz em si é normalmente dividida em quatro quadrantes para classificação binária, embora se expanda para problemas multiclasse, como os tratados pelo Ultralytics . Esses quatro componentes representam a interseção entre o que o modelo previu e o que realmente existe na imagem.

  • Verdadeiros positivos (TP): O modelo prevê corretamente a classe positiva. Por exemplo, numa tarefa de deteção de objetos, o modelo desenha com sucesso uma caixa delimitadora em torno de uma pessoa que está realmente no quadro.
  • Verdadeiros negativos (TN): O modelo prevê corretamente a classe negativa. Isso é crucial em cenários como detecção de anomalias, em que o sistema identifica corretamente que uma peça fabricada não tem defeitos.
  • Falsos positivos (FP): O modelo prevê incorretamente a classe positiva. Frequentemente chamado de «erro do tipo I», isso ocorre quando o sistema deteta um objeto que não está presente, como uma câmara de segurança que sinaliza uma sombra como um intruso.
  • Falsos negativos (FN): O modelo prevê incorretamente a classe negativa. Conhecido como «erro do tipo II», isso acontece quando o modelo não consegue detect objeto que está presente, essencialmente «perdendo» o alvo.

Métricas derivadas e significado

Os números brutos numa matriz de confusão são usados para calcular métricas mais avançadas que descrevem o desempenho do modelo. Compreender esses derivados é essencial para otimizar redes neurais.

  • Precisão: Calculada como TP / (TP + FP), esta métrica revela a precisão das previsões positivas. Uma precisão elevada significa menos falsos alarmes.
  • Recall (Sensibilidade): Calculado como TP / (TP + FN), mede a capacidade do modelo de encontrar todas as instâncias positivas. Um recall elevado é vital quando a falta de um objeto tem consequências graves.
  • Pontuação F1: A média harmónica da precisão e da recuperação. Fornece uma pontuação única que equilibra a relação entre as duas, útil para comparar diferentes modelos YOLO26.

Aplicações no Mundo Real

O custo específico dos erros definido pela matriz de confusão determina como os modelos são ajustados para diferentes setores.

No campo da IA na área da saúde, a matriz de confusão é uma questão de segurança. Ao treinar um modelo para análise de imagens médicas para detect , um falso negativo (não detetar um tumor) é muito pior do que um falso positivo (sinalizar uma mancha benigna para revisão médica). Portanto, os engenheiros priorizam a recuperação em detrimento da precisão nessas matrizes para garantir que nenhum risco potencial à saúde seja ignorada.

Por outro lado, na controle de qualidade da produção, a eficiência é fundamental. Se um sistema que classifica peças da linha de montagem gera muitos falsos positivos (marcando peças boas como defeituosas), isso causa desperdício desnecessário e retarda a produção. Aqui, a matriz de confusão ajuda os engenheiros a ajustar o modelo para maximizar a precisão, garantindo que o que é rejeitado seja realmente defeituoso, simplificando os fluxos de trabalho automatizados de aprendizagem automática .

Gerando uma matriz de confusão com YOLO26

Ao utilizar frameworks modernos, a geração dessa matriz geralmente faz parte do pipeline de validação padrão. O exemplo abaixo demonstra como validar um Modelo YOLO26 e aceda aos dados da matriz de confusão usando o ultralytics pacote.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")

# Validate the model on the COCO8 dataset
# This automatically generates and plots the confusion matrix
metrics = model.val(data="coco8.yaml")

# Access the confusion matrix object directly
print(metrics.confusion_matrix.matrix)

Diferenciação de conceitos relacionados

É importante distinguir a matriz de confusão de termos de avaliação semelhantes.

  • Vs. Precisão: Precisão é simplesmente a relação entre previsões corretas e previsões totais. Embora útil, a precisão pode ser altamente enganosa em conjuntos de dados desequilibrados. Por exemplo, se 95% dos e-mails não forem spam, um modelo que prevê "não spam" para todos os e-mails tem 95% de precisão, mas é inútil. A matriz de confusão revela essa falha, mostrando zero Verdadeiros Positivos para a classe spam.
  • Vs. Curva ROC: A matriz de confusão fornece um instantâneo do desempenho em um único limiar de confiança específico. Em contrapartida, a curva Receiver Operating Characteristic (ROC) visualiza como a Taxa de Verdadeiros Positivos e a Taxa de Falsos Positivos mudam à medida que esse limiar é alterado. Ferramentas como a Ultralytics permitem que os utilizadores explorem ambas as visualizações para escolher o ponto de operação ideal para a sua implementação.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora