¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Confianza

Definir las puntuaciones de confianza de la IA. Aprenda cómo los modelos evalúan la certeza de la predicción, establecen umbrales de fiabilidad y distinguen la confianza de la precisión.

En el aprendizaje automático, el puntaje de confianza es un valor numérico asignado a una predicción individual, que indica la certeza del modelo de que la predicción es correcta. Expresado como un porcentaje o un valor de probabilidad entre 0 y 1, cuantifica la "creencia" del modelo en su propia salida para una sola instancia. Por ejemplo, en una tarea de detección de objetos, un modelo como Ultralytics YOLO11 podría identificar un automóvil en una imagen y asignar un puntaje de confianza de 0.95 (o 95%), lo que sugiere que está muy seguro de su hallazgo. Este puntaje es una salida crítica que ayuda a los usuarios a filtrar, priorizar e interpretar los resultados del modelo en escenarios del mundo real.

La puntuación de confianza se deriva normalmente de la salida de la capa final de una red neuronal (NN), a menudo una función softmax o sigmoide. Este valor es fundamental en aplicaciones prácticas, donde se establece un umbral de confianza para descartar las predicciones que caen por debajo de un cierto nivel de certeza. Al ajustar este umbral, los desarrolladores pueden equilibrar la compensación entre capturar todas las detecciones relevantes y minimizar los falsos positivos, una consideración clave en el despliegue del modelo.

Aplicaciones en el mundo real

Los puntajes de confianza son esenciales para hacer que los sistemas de IA sean más confiables y prácticos. Permiten a los sistemas medir la incertidumbre y activar diferentes respuestas en consecuencia.

  • Vehículos autónomos: En los coches autónomos, las puntuaciones de confianza son vitales para la seguridad. Un detector de objetos podría identificar a un peatón con un 98% de confianza, una señal clara para que el vehículo reduzca la velocidad o se detenga. Por el contrario, si detecta un objeto con sólo un 30% de confianza, el sistema podría marcarlo como incierto y utilizar otros sensores para verificar su naturaleza antes de tomar medidas. Esto ayuda a prevenir accidentes al centrarse en las amenazas de alta certeza. Para obtener más detalles sobre este tema, puede leer sobre el papel de la IA en los coches autónomos.
  • Análisis de imágenes médicas: Cuando un modelo de IA analiza escaneos médicos en busca de signos de enfermedad, como la detección de tumores en imágenes médicas, el puntaje de confianza es invaluable. Una detección con un 99% de confianza puede marcarse inmediatamente para la revisión de un radiólogo. Un hallazgo con un 60% de confianza podría marcarse como "ambiguo" o "necesita más revisión", lo que garantiza que los casos inciertos reciban el escrutinio humano sin abrumar a los expertos con falsas alarmas. La FDA proporciona orientación sobre la IA/ML en dispositivos médicos.

Confianza vs. Otras Métricas

Es importante no confundir la puntuación de confianza de una predicción individual con las métricas de evaluación generales del modelo. Aunque están relacionados, miden diferentes aspectos del rendimiento:

  • Precisión: Mide el porcentaje general de predicciones correctas en todo el conjunto de datos. Proporciona una idea general del rendimiento del modelo, pero no refleja la certeza de las predicciones individuales. Un modelo puede tener una alta precisión, pero aun así realizar algunas predicciones con baja confianza.
  • Precisión: Indica la proporción de predicciones positivas que fueron realmente correctas. Una alta precisión significa menos falsas alarmas. La confianza refleja la creencia del modelo en su predicción, que puede o no coincidir con la exactitud.
  • Recall (Sensibilidad): Mide la proporción de instancias positivas reales que el modelo identificó correctamente. Un recall alto significa menos detecciones perdidas. La confianza no se relaciona directamente con cuántos positivos reales se encontraron.
  • Puntuación F1: La media armónica de la precisión y la exhaustividad (Recall), que proporciona una única métrica que equilibra ambas. La confianza sigue siendo una puntuación a nivel de predicción, no una medida agregada del rendimiento del modelo.
  • Precisión media promedio (mAP): Una métrica común en la detección de objetos que resume la curva precisión-recuperación a través de diferentes umbrales de confianza y clases. Si bien el cálculo de mAP implica umbrales de confianza, la puntuación de confianza en sí se aplica a cada detección individual.
  • Calibración: Se refiere a lo bien que las puntuaciones de confianza se alinean con la probabilidad real de corrección. Las predicciones de un modelo bien calibrado con un 80% de confianza deberían ser correctas aproximadamente el 80% de las veces. Las puntuaciones de confianza de las redes neuronales modernas no siempre están inherentemente bien calibradas, como se analiza en la investigación sobre la calibración de modelos.

En resumen, la confianza es un resultado valioso para evaluar la certeza de las predicciones individuales de la IA, lo que permite una mejor filtrado, priorización y toma de decisiones en aplicaciones del mundo real. Complementa, pero es distinto de, las métricas que evalúan el rendimiento general de un modelo, como las que puede rastrear y analizar utilizando herramientas como Ultralytics HUB.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles