Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Confianza

Definir las puntuaciones de confianza de la IA. Aprenda cómo los modelos evalúan la certeza de la predicción, establecen umbrales de fiabilidad y distinguen la confianza de la precisión.

En el contexto de la inteligencia artificial y el aprendizaje automático, una puntuación de confianza es una métrica que cuantifica la certeza de un modelo con respecto a una predicción específica. Representa la probabilidad, que suele oscilar entre 0 y 1 (o entre el 0 % y el 100 %), de que el resultado generado por el algoritmo coincida con la verdad fundamental. Por ejemplo, en una tarea de detección de objetos, si un modelo identifica una región de una imagen como un «perro» con una confianza de 0,95, indica una probabilidad estimada del 95 % de que la clasificación sea correcta. Este valor se deriva de la capa final de una red neuronal, a menudo transformada por una función de activación como Softmax para problemas multiclase o Sigmoid para tareas binarias .

El papel de la confianza en la inferencia

Las puntuaciones de confianza son fundamentales durante el flujo de trabajo del motor de inferencia, ya que sirven como filtro para separar las predicciones de alta calidad del ruido. Este proceso, conocido como umbral, permite a los desarrolladores controlar la sensibilidad de una aplicación. Al establecer un umbral de confianza mínimo, se puede equilibrar la relación entre precisión y recuperación. Un umbral bajo captura más objetos, pero aumenta el riesgo de falsos positivos, mientras que un umbral alto garantiza la precisión, pero puede pasar por alto casos sutiles (falsos negativos).

En arquitecturas modernas como Ultralytics , las puntuaciones de confianza desempeñan un papel fundamental en pasos de posprocesamiento como la supresión no máxima (NMS). NMS estas puntuaciones para eliminar los cuadros delimitadores redundantes que se superponen de forma significativa, conservando solo la detección con la mayor probabilidad. Esto garantiza que el resultado final sea limpio y útil para tareas posteriores como el recuento o el seguimiento de objetos.

Aquí hay un ejemplo práctico de cómo filtrar predicciones por confianza utilizando el ultralytics Python paquete:

from ultralytics import YOLO

# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference on an image with a set confidence threshold
# Only detections with a confidence score > 0.5 (50%) will be returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)

# Iterate through results to inspect high-confidence boxes
for box in results[0].boxes:
    print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")

Aplicaciones en el mundo real

Las puntuaciones de confianza son indispensables en diversos sectores en los que se utiliza la visión artificial (CV). Proporcionan una capa de interpretabilidad que ayuda a los sistemas a decidir cuándo actuar de forma autónoma y cuándo solicitar la intervención humana.

  • Conducción autónoma: en el campo de la IA en automoción, los coches autónomos se basan en puntuaciones de confianza para priorizar la seguridad. Si un sistema de percepción detecta un obstáculo con baja confianza, puede fusionar esta información con datos de sensores LiDAR o radar para confirmar la existencia del objeto antes de iniciar una frenada de emergencia. Esto evita peligrosas «frenadas fantasma» causadas por la mala interpretación de sombras o reflejos en la carretera.
  • Diagnóstico médico: al aplicar la IA en el ámbito sanitario, los modelos ayudan a los radiólogos señalando posibles anomalías en radiografías o resonancias magnéticas. Un sistema diseñado para la detección de tumores podría resaltar las regiones con alta confianza para su revisión inmediata, mientras que las áreas con menor confianza podrían registrarse para un análisis secundario. Este enfoque «human-in-the-loop» (con intervención humana) garantiza que la IA apoye la toma de decisiones clínicas sin sustituir el criterio de los expertos.
  • Automatización industrial: En la fabricación inteligente, los robots utilizan puntuaciones de confianza para manipular objetos en las líneas de montaje. Un brazo robótico equipado con IA visual solo intentará recoger una pieza si la confianza en la detección supera el 90 %, lo que evita daños en componentes delicados o maquinaria debido a agarres desalineados.

Distinguir la confianza de términos relacionados

Es importante diferenciar el concepto de confianza de otras métricas estadísticas utilizadas en la evaluación de modelos.

  • Confianza frente a precisión: la precisión es una métrica global que describe la frecuencia con la que un modelo es correcto en todo un conjunto de datos (por ejemplo, «el modelo tiene una precisión del 92 % »). La confianza es un valor local específico de la predicción (por ejemplo, «estoy seguro al 92 % de que esta imagen concreta contiene un gato»). Un modelo puede tener una precisión global alta, pero seguir produciendo puntuaciones de confianza bajas en ejemplos difíciles o ambiguos, a menudo denominados casos extremos.
  • Confianza frente a calibración de probabilidad: una puntuación de confianza bruta no siempre equivale a la verdadera probabilidad de corrección. Se considera que un modelo está «bien calibrado» si, entre todas las predicciones realizadas con una confianza de 0,8, aproximadamente el 80 % son realmente correctas. Técnicas como el escalado de Platt o la regresión isotónica se utilizan a menudo para alinear las puntuaciones de confianza con las probabilidades empíricas, lo cual es crucial para las aplicaciones sensibles al riesgo.
  • Confianza frente a precisión: La precisión mide la proporción de identificaciones positivas que eran realmente correctas. Aunque un umbral de confianza alto suele aumentar la precisión, lo hace a costa de la recuperación. Los desarrolladores deben ajustar este umbral en función de si su aplicación específica da prioridad a perder menos objetos o a minimizar las falsas alarmas.

Mejorar la confianza de los modelos

Si un modelo genera sistemáticamente una baja confianza en objetos válidos, esto suele indicar una discrepancia entre los datos de entrenamiento y el entorno real. Las estrategias para abordar este problema incluyen el aumento de datos, que amplía artificialmente el conjunto de entrenamiento variando la iluminación, la rotación y el ruido. Además, el empleo de canales de aprendizaje activo permite a los desarrolladores identificar muestras de baja confianza, anotarlas y volver a entrenar el modelo. Este proceso iterativo es fundamental para crear agentes de IA robustos capaces de funcionar de forma fiable en entornos dinámicos.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora