Define las puntuaciones de confianza de la IA. Aprende cómo los modelos calibran la certeza de la predicción, establecen umbrales de fiabilidad y distinguen la confianza de la precisión.
La confianza, en el contexto de la Inteligencia Artificial (IA) y el Aprendizaje Automático (AM), representa una puntuación asignada por un modelo a su predicción, indicando lo seguro que está el modelo sobre ese resultado específico. En tareas como la detección de objetos o la clasificación de imágenes, cada objeto detectado o etiqueta de clase asignada tiene una puntuación de confianza, que suele ir de 0 a 1 (o de 0% a 100%). Esta puntuación ayuda a los usuarios a calibrar la fiabilidad de las predicciones individuales realizadas por modelos como Ultralytics YOLO. Una puntuación más alta sugiere que el modelo está más seguro de su predicción basándose en los patrones aprendidos durante el entrenamiento. Comprender la confianza es crucial para interpretar los resultados del modelo y tomar decisiones informadas basadas en predicciones de IA, especialmente en aplicaciones críticas para la seguridad como la IA en soluciones de automoción.
Las puntuaciones de confianza suelen derivarse de la capa de salida de una red neuronal (NN). En las tareas de clasificación, esto suele implicar aplicar una función de activación como Softmax o Sigmoid a las salidas brutas (logits) para producir valores similares a la probabilidad para cada clase. En los modelos de detección de objetos como YOLO, la puntuación de confianza podría combinar la probabilidad de que un objeto esté presente en un cuadro delimitador propuesto (a menudo denominada "puntuación de objetualidad") y la probabilidad de que ese objeto pertenezca a una clase específica, condicionada a que un objeto esté presente. Es un resultado clave utilizado durante el proceso de inferencia para evaluar la validez de las detecciones. Esta puntuación se calcula a partir de las ponderaciones del modelo aprendidas de conjuntos de datos como COCO.
En la práctica, no todas las predicciones de un modelo son igual de útiles o fiables. Las predicciones con puntuaciones de confianza muy bajas suelen representar ruido de fondo o clasificaciones inciertas. Para filtrarlas, se suele aplicar un "umbral de confianza". Se trata de un valor definido por el usuario (por ejemplo, 0,5 o 50%); sólo las predicciones con una puntuación de confianza superior a este umbral se consideran salidas válidas. Establecer un umbral adecuado es vital y a menudo depende de la aplicación específica:
El umbral de confianza suele funcionar junto con técnicas como la Supresión No Máxima (NMS) para refinar el conjunto final de detecciones eliminando los cuadros delimitadores superpuestos del mismo objeto. Puedes configurar fácilmente este umbral cuando utilices modelos de Ultralytics mediante la interfaz de línea de comandos (CLI) o la API dePython . Encontrar el umbral óptimo puede implicar el ajuste de hiperparámetros.
Las puntuaciones de confianza son fundamentales para desplegar modelos de IA de forma responsable y eficaz:
Es importante no confundir la puntuación de confianza de una predicción individual con las métricas generales de evaluación del modelo. Aunque están relacionadas, miden aspectos diferentes del rendimiento:
En resumen, la confianza es un resultado valioso para evaluar la certeza de las predicciones individuales de la IA, permitiendo un mejor filtrado, priorización y toma de decisiones en las aplicaciones del mundo real. Complementa, pero es distinta, de las métricas que evalúan el rendimiento general de un modelo, como las que se rastrean en Ultralytics HUB.