Defina as pontuações de confiança da IA. Aprenda como os modelos avaliam a certeza da previsão, definem limites para a confiabilidade e distinguem a confiança da precisão.
No domínio da inteligência artificial e da aprendizagem automática, uma pontuação de confiança é uma métrica que quantifica o nível de certeza que um modelo tem em relação a uma previsão específica. Esse valor varia normalmente entre 0 e 1 (ou 0% e 100%) e representa a probabilidade estimada de que o resultado do algoritmo esteja alinhado com a verdade fundamental. Por exemplo, numa tarefa de deteção de objetos, se um sistema identifica uma região de uma imagem como uma «bicicleta» com uma confiança de 0,92, isso sugere uma probabilidade estimada de 92% de que a classificação esteja correta. Essas pontuações são derivadas da camada final de uma rede neural, frequentemente processada por meio de uma função de ativação, como Softmax para categorização multiclasse ou a função Sigmoid para decisões binárias.
As pontuações de confiança são um componente fundamental do fluxo de trabalho do mecanismo de inferência, atuando como um filtro para distinguir previsões de alta qualidade do ruído de fundo. Esse processo de filtragem, conhecido como limiar, permite que os programadores ajustem a sensibilidade de uma aplicação. Ao estabelecer um limiar mínimo de confiança, é possível gerenciar o compromisso crítico entre precisão e recuperação. Um limiar mais baixo pode detect objetos, mas aumenta o risco de falsos positivos, enquanto um limiar mais alto melhora a precisão, mas pode resultar na perda de instâncias sutis.
Em arquiteturas avançadas como Ultralytics , as pontuações de confiança são essenciais para técnicas de pós-processamento como Supressão Não Máxima (NMS). NMS utiliza essas pontuações para remover caixas delimitadoras redundantes que se sobrepõem significativamente, preservando apenas a detecção com a maior probabilidade. Esta etapa garante que o resultado final seja limpo e esteja pronto para tarefas posteriores, como contagem ou rastreamento de objetos.
Python a seguir demonstra como filtrar previsões por confiança usando o
ultralytics pacote:
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
As pontuações de confiança fornecem uma camada de interpretabilidade indispensável em todos os setores onde a visão computacional (CV) é aplicada. Elas ajudam os sistemas automatizados a determinar quando proceder de forma autónoma e quando acionar alertas para revisão humana.
É crucial diferenciar a confiança de outras métricas estatísticas utilizadas na avaliação do modelo.
Se um modelo produz consistentemente baixa confiança para objetos válidos, isso geralmente sinaliza uma discrepância entre os dados de treino e o ambiente de implementação. As estratégias para mitigar isso incluem o aumento de dados, que expande artificialmente o conjunto de dados, variando a iluminação, a rotação e o ruído. Além disso, usar Ultralytics para implementar pipelines de aprendizagem ativa permite que os programadores identifiquem facilmente amostras de baixa confiança, anotem-nas e retreinem o modelo. Esse ciclo iterativo é vital para criar agentes de IA robustos, capazes de operar de forma confiável em configurações dinâmicas do mundo real.