Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Precisão (Accuracy)

Descubra a importância da precisão (accuracy) em machine learning, seu cálculo, limitações com conjuntos de dados desbalanceados e maneiras de melhorar o desempenho do modelo.

A precisão serve como referência fundamental na avaliação de sistemas de inteligência artificial, quantificando a percentagem de previsões corretas que um modelo faz em relação ao número total de previsões. No contexto da aprendizagem automática e, especificamente, da aprendizagem supervisionada, essa métrica fornece um instantâneo de alto nível da eficácia com que um algoritmo se alinha à verdade fundamental fornecida durante o processo de treinamento. Embora seja a medida mais intuitiva de desempenho — respondendo à simples pergunta: "Com que frequência o modelo está certo?" —, ela atua como um indicador primário da confiabilidade de um sistema antes que os desenvolvedores mergulhem em métricas mais granulares .

A nuance da avaliação do desempenho

Embora a precisão seja um excelente ponto de partida, ela é mais eficaz quando aplicada a dados de treino equilibrados, nos quais todas as classes estão representadas de forma igualitária. Por exemplo, numa tarefa padrão de classificação de imagens que distingue entre gatos e cães, se o conjunto de dados contiver 500 imagens de cada, a precisão é uma métrica confiável. No entanto, surgem desafios com conjuntos de dados desequilibrados, levando ao «paradoxo da precisão».

Se um modelo for treinado para deteção de fraudes em que apenas 1% das transações são fraudulentas, um modelo que simplesmente prevê todas as transações como "legítimas" alcançaria 99% de precisão, mas falharia completamente na tarefa pretendida. Para mitigar isso, os engenheiros costumam usar Ultralytics para visualizar a distribuição do conjunto de dados e garantir que os modelos não estejam simplesmente memorizando a classe majoritária.

Distinguindo precisão de termos relacionados

Para compreender totalmente o desempenho do modelo, é fundamental diferenciar a precisão de métricas semelhantes:

  • Precisão: mede a qualidade das previsões positivas. Pergunta: «De todos os casos previstos como positivos, quantos foram realmente positivos?»
  • Recall: Também conhecido como sensibilidade, este mede a capacidade do modelo de encontrar todos os casos relevantes. Ele pergunta: «De todos os casos positivos reais, quantos o modelo identificou corretamente?»
  • Pontuação F1: É a média harmónica da precisão e da recuperação, fornecendo uma pontuação única que equilibra as duas, o que é particularmente útil para distribuições de classes desiguais .

Enquanto a exatidão fornece uma visão global da correção, a precisão e a recuperação oferecem insights sobre tipos específicos de erros, como falsos positivos ou falsos negativos.

Aplicações no Mundo Real

A utilidade da precisão se estende por diversos setores, validando a confiabilidade da visão computacional e dos modelos preditivos em ambientes críticos.

  • Diagnósticos médicos: No campo da análise de imagens médicas, os modelos são usados para classify ou ressonâncias magnéticas. Um modelo que classifica exames como "saudáveis" ou "patológicos" depende de alta precisão para garantir que os pacientes recebam diagnósticos corretos. As inovações em IA na área da saúde dependem fortemente de uma validação rigorosa para minimizar erros automatizados.
  • Controlo de qualidade na fabricação: Os sistemas automatizados na fabricação inteligente utilizam inspeção visual para identificar defeitos nas linhas de montagem. A alta precisão garante que apenas produtos sem defeitos sejam enviados, reduzindo o desperdício e os custos de garantia. Ao empregar a deteção de objetos para identificar falhas, as fábricas mantêm os padrões de produção automaticamente.

Precisão de medição no código

Em cenários práticos usando Python, os programadores podem facilmente medir a precisão de um modelo usando bibliotecas estabelecidas. O exemplo a seguir demonstra como validar um modelo de classificação YOLO26 para obter a sua precisão top-1. A precisão top-1 refere-se à frequência com que a previsão de maior probabilidade do modelo corresponde ao rótulo correto .

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Validate the model on a standard dataset (e.g., MNIST)
metrics = model.val(data="mnist")

# Print the Top-1 Accuracy
print(f"Top-1 Accuracy: {metrics.top1:.4f}")

Estratégias para melhoria

Quando um modelo apresenta baixa precisão, várias técnicas podem ser empregadas para melhorar o desempenho. Os engenheiros frequentemente utilizam o aumento de dados para aumentar artificialmente a diversidade do conjunto de treino, evitando que o modelo se adapte excessivamente. Além disso, o ajuste de hiperparâmetros— ajustar configurações como a taxa de aprendizagem— pode afetar significativamente a convergência. Para tarefas complexas, a aprendizagem por transferência permite que um modelo aproveite o conhecimento de um grande conjunto de dados pré-treinado (como ImageNet) para obter maior precisão em um conjunto de dados menor e específico.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora