Definir las puntuaciones de confianza de la IA. Aprenda cómo los modelos evalúan la certeza de la predicción, establecen umbrales de fiabilidad y distinguen la confianza de la precisión.
En el contexto de la inteligencia artificial y el aprendizaje automático, una puntuación de confianza es una métrica que cuantifica la certeza de un modelo con respecto a una predicción específica. Representa la probabilidad, que suele oscilar entre 0 y 1 (o entre el 0 % y el 100 %), de que el resultado generado por el algoritmo coincida con la verdad fundamental. Por ejemplo, en una tarea de detección de objetos, si un modelo identifica una región de una imagen como un «perro» con una confianza de 0,95, indica una probabilidad estimada del 95 % de que la clasificación sea correcta. Este valor se deriva de la capa final de una red neuronal, a menudo transformada por una función de activación como Softmax para problemas multiclase o Sigmoid para tareas binarias .
Las puntuaciones de confianza son fundamentales durante el flujo de trabajo del motor de inferencia, ya que sirven como filtro para separar las predicciones de alta calidad del ruido. Este proceso, conocido como umbral, permite a los desarrolladores controlar la sensibilidad de una aplicación. Al establecer un umbral de confianza mínimo, se puede equilibrar la relación entre precisión y recuperación. Un umbral bajo captura más objetos, pero aumenta el riesgo de falsos positivos, mientras que un umbral alto garantiza la precisión, pero puede pasar por alto casos sutiles (falsos negativos).
En arquitecturas modernas como Ultralytics , las puntuaciones de confianza desempeñan un papel fundamental en pasos de posprocesamiento como la supresión no máxima (NMS). NMS estas puntuaciones para eliminar los cuadros delimitadores redundantes que se superponen de forma significativa, conservando solo la detección con la mayor probabilidad. Esto garantiza que el resultado final sea limpio y útil para tareas posteriores como el recuento o el seguimiento de objetos.
Aquí hay un ejemplo práctico de cómo filtrar predicciones por confianza utilizando el ultralytics Python
paquete:
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference on an image with a set confidence threshold
# Only detections with a confidence score > 0.5 (50%) will be returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Iterate through results to inspect high-confidence boxes
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
Las puntuaciones de confianza son indispensables en diversos sectores en los que se utiliza la visión artificial (CV). Proporcionan una capa de interpretabilidad que ayuda a los sistemas a decidir cuándo actuar de forma autónoma y cuándo solicitar la intervención humana.
Es importante diferenciar el concepto de confianza de otras métricas estadísticas utilizadas en la evaluación de modelos.
Si un modelo genera sistemáticamente una baja confianza en objetos válidos, esto suele indicar una discrepancia entre los datos de entrenamiento y el entorno real. Las estrategias para abordar este problema incluyen el aumento de datos, que amplía artificialmente el conjunto de entrenamiento variando la iluminación, la rotación y el ruido. Además, el empleo de canales de aprendizaje activo permite a los desarrolladores identificar muestras de baja confianza, anotarlas y volver a entrenar el modelo. Este proceso iterativo es fundamental para crear agentes de IA robustos capaces de funcionar de forma fiable en entornos dinámicos.