Explora el papel de los índices de confianza en la IA. Aprende a filtrar predicciones, optimizar el equilibrio entre precisión y recuperación, e implementar Ultralytics para obtener mayor precisión.
En el ámbito de la inteligencia artificial y el aprendizaje automático, una puntuación de confianza es una métrica que cuantifica el nivel de certeza que tiene un modelo con respecto a una predicción específica. Este valor suele oscilar entre 0 y 1 (o entre el 0 % y el 100 %) y representa la probabilidad estimada de que el resultado del algoritmo coincida con la verdad fundamental. Por ejemplo, en una tarea de detección de objetos, si un sistema identifica una región de una imagen como una «bicicleta» con una confianza de 0,92, sugiere una probabilidad estimada del 92 % de que la clasificación sea correcta. Estas puntuaciones se derivan de la capa final de una red neuronal, a menudo procesadas a través de una función de activación como Softmax para la categorización multiclase o la función sigmoide para decisiones binarias.
Las puntuaciones de confianza son un componente fundamental del flujo de trabajo del motor de inferencia, ya que actúan como filtro para distinguir las predicciones de alta calidad del ruido de fondo. Este proceso de filtrado, conocido como umbral, permite a los desarrolladores ajustar la sensibilidad de una aplicación. Al establecer un umbral de confianza mínimo, se puede gestionar el crítico equilibrio entre precisión y recuperación. Un umbral más bajo puede detect objetos, pero aumenta el riesgo de falsos positivos, mientras que un umbral más alto mejora la precisión, pero puede dar lugar a que se pierdan casos sutiles.
En arquitecturas avanzadas como Ultralytics , las puntuaciones de confianza son esenciales para técnicas de posprocesamiento como la supresión no máxima (NMS). NMS utiliza estas puntuaciones para eliminar los cuadros delimitadores redundantes que se superponen significativamente, conservando solo la detección con la mayor probabilidad. Este paso garantiza que el resultado final sea limpio y esté listo para tareas posteriores, como el recuento o el seguimiento de objetos.
El siguiente Python muestra cómo filtrar predicciones por confianza utilizando el
ultralytics paquete:
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
Las puntuaciones de confianza proporcionan un nivel de interpretabilidad indispensable en todos los sectores en los que se aplica la visión artificial (CV). Ayudan a los sistemas automatizados a determinar cuándo proceder de forma autónoma y cuándo activar alertas para su revisión por parte de personas.
Es crucial diferenciar la confianza de otras métricas estadísticas utilizadas en la evaluación de modelos.
Si un modelo genera sistemáticamente una baja confianza en objetos válidos, a menudo indica una discrepancia entre los datos de entrenamiento y el entorno de implementación. Las estrategias para mitigar esto incluyen el aumento de datos, que amplía artificialmente el conjunto de datos variando la iluminación, la rotación y el ruido. Además, el uso de Ultralytics para implementar canales de aprendizaje activo permite a los desarrolladores identificar fácilmente muestras de baja confianza, anotarlas y volver a entrenar el modelo. Este ciclo iterativo es vital para crear agentes de IA robustos capaces de funcionar de forma fiable en entornos dinámicos y del mundo real.