Defina as pontuações de confiança da IA. Aprenda como os modelos avaliam a certeza da previsão, definem limites para a confiabilidade e distinguem a confiança da precisão.
No domínio da aprendizagem automática e da inteligência artificial inteligência artificial, uma pontuação de confiança é um valor numérico que representa a probabilidade de uma previsão específica feita por um modelo esteja correta. Normalmente expressa como uma probabilidade entre 0 e 1 (ou uma percentagem de 0% a 100%), esta pontuação quantifica a certeza da rede rede neural em relação ao seu resultado. Por Por exemplo, numa tarefa de deteção de objectos, o sistema pode prever a presença de um "gato" com uma confiança de 0,95, indicando uma forte crença na exatidão precisão desse rótulo. Estas pontuações são normalmente derivadas da camada final do modelo utilizando funções de ativação, tais como a função softmax para problemas multi-classe ou a função para problemas multi-classe ou a função sigmoide para classificação binária.
As pontuações de confiança são um componente fundamental do fluxo de trabalho do motor de inferência. Eles permitem que os desenvolvedores filtrar as previsões com base num nível de certeza necessário, um processo conhecido como limiar. Ao definir um limiar de confiança limiar de confiança específico, pode gerir eficazmente o compromisso entre a identificação de todos os objectos possíveis (elevada recuperação) e garantir que os objectos identificados estão corretos (elevada precisão).
Na aplicação prática do modelo, as previsões brutas contêm frequentemente ruído ou detecções de baixa probabilidade. Técnicas como a supressão não máxima (NMS) utilizam (NMS) utilizam pontuações de confiança para eliminar caixas redundantes sobrepostas, mantendo apenas a deteção com a maior probabilidade. Isto garante que o resultado final apresentado ao utilizador é limpo e acionável.
O exemplo seguinte demonstra como aplicar um limiar de confiança durante a inferência utilizando Ultralytics YOLO11:
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image with a confidence threshold of 0.6 (60%)
# This filters out any detections with a confidence score lower than 0.6
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.6)
# Display the count of objects detected above the threshold
print(f"Detected {len(results[0].boxes)} objects with high confidence.")
A utilidade das pontuações de confiança estende-se a praticamente todos os sectores que implementam visão computacional e soluções de IA.
É fundamental que os profissionais distingam a "confiança" das métricas de avaliação padrão utilizadas para aferir modelos.
Se um modelo produzir consistentemente baixa confiança para objectos válidos, isso pode indicar problemas com os dados de treino. As estratégias para melhorar esta situação incluem aumento dos dados para expor o modelo a uma modelo a uma iluminação e orientações mais variadas, ou aprendizagem ativa para anotar e treinar novamente nos casos extremos" específicos em que o modelo é atualmente incerto. Garantir conjuntos de dados diversificados e de alta qualidade é é essencial para criar sistemas robustos em que os utilizadores possam confiar.