Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Confianza

Definir las puntuaciones de confianza de la IA. Aprenda cómo los modelos evalúan la certeza de la predicción, establecen umbrales de fiabilidad y distinguen la confianza de la precisión.

En el ámbito del aprendizaje automático y la En el ámbito del aprendizaje automático y la inteligencia artificial, una puntuación de confianza es un valor numérico que representa la probabilidad de que una predicción específica realizada por un modelo sea correcta. por un modelo sea correcta. Normalmente expresada como una probabilidad entre 0 y 1 (o un porcentaje entre 0% y 100%), esta puntuación cuantifica la certeza de la predicción. puntuación cuantifica la certeza de la red neuronal con respecto a su resultado. En ejemplo, en una tarea de detección de objetos, el sistema puede predecir la presencia de un "gato" con una confianza de 0,95, lo que indica que cree firmemente en la exactitud de esa etiqueta. de esa etiqueta. Estas puntuaciones suelen derivarse de la capa final del modelo mediante funciones de activación como la función softmax para problemas multiclase o la función sigmoidea para la clasificación binaria.

El papel de la confianza en la inferencia

Las puntuaciones de confianza son un componente fundamental del del motor de inferencia. Permiten a los desarrolladores filtrar las predicciones en función del nivel de certeza requerido, un proceso conocido como umbral. Al establecer un umbral de confianza umbral de confianza, puede gestionar eficazmente el equilibrio entre la identificación de todos los objetos posibles (alta recuperación) y la garantía de que los objetos identificados son correctos (alta recuperación). y garantizar que los objetos identificados son correctos (alta precisión).

En el despliegue práctico de modelos, las predicciones brutas a menudo contienen ruido o detecciones de baja probabilidad. Técnicas como supresión no máxima (NMS) utilizan las puntuaciones de confianza para eliminar los recuadros superpuestos redundantes, manteniendo sólo la detección con la probabilidad más alta. De este modo se garantiza que el resultado final presentado al usuario sea limpio y procesable.

El siguiente ejemplo muestra cómo aplicar un umbral de confianza durante la inferencia utilizando Ultralytics YOLO11:

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")

# Run inference on an image with a confidence threshold of 0.6 (60%)
# This filters out any detections with a confidence score lower than 0.6
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.6)

# Display the count of objects detected above the threshold
print(f"Detected {len(results[0].boxes)} objects with high confidence.")

Aplicaciones en el mundo real

La utilidad de las puntuaciones de confianza se extiende a prácticamente todos los sectores que utilizan soluciones de visión computerizada e inteligencia artificial. soluciones de visión computerizada e IA.

  • Sistemas autónomos: En el desarrollo de vehículos autónomos, la seguridad es primordial. Los sistemas de percepción utilizan puntuaciones de confianza para fusionar datos de cámaras y LiDAR. Si un modelo de visión detecta un obstáculo Si un modelo de visión detecta un obstáculo con un nivel de confianza bajo, el sistema puede compararlo con los datos del radar antes de activar el frenado de emergencia. Este enfoque por capas, crucial para la IA en automoción, ayuda a evitar frenadas fantasma peligrosas causadas por falsos positivos.
  • Diagnóstico médico: En análisis de imágenes médicas, las herramientas a los médicos detectando posibles anomalías en radiografías o resonancias magnéticas. Un sistema diseñado para para la IA en la atención sanitaria podría confianza. Las detecciones de patologías de alta confianza se priorizan para su revisión inmediata por un radiólogo, mientras que las regiones de baja confianza se priorizan para su revisión inmediata por un radiólogo. radiólogo, mientras que las regiones de baja confianza podrían destacarse para una "segunda mirada", asegurando que la IA actúe como un asistente de apoyo más que como un decisor definitivo. definitiva.

Confianza frente a exactitud y precisión

Es fundamental que los profesionales distingan la "confianza" de las métricas de evaluación utilizadas para modelos.

  • Confianza frente a precisión: La precisión mide la exactitud global de un modelo en todo un conjunto de datos (por ejemplo, "El modelo tiene una precisión del 90%"). En cambio, la confianza es un Por el contrario, la confianza es un valor específico de predicción (por ejemplo, "Estoy seguro al 90% de que esta imagen concreta es un perro"). Un modelo puede ser un modelo puede ser preciso en general, pero tener una confianza baja en ejemplos difíciles.
  • Confianza frente a precisión: La precisión calcula el porcentaje de predicciones predicciones correctas. Aunque está relacionado, una puntuación de confianza alta no garantiza una precisión alta si si el modelo está sobreajustado o mal calibrado. mal calibrado.
  • Calibración: Un modelo se considera "bien calibrado" si sus puntuaciones de confianza reflejan la probabilidad real de corrección. Por ejemplo, entre todas las predicciones realizadas con una confianza de 0,8, aproximadamente el 80% deberían ser coincidencias positivas reales.

Mejorar la confianza de los modelos

Si un modelo arroja sistemáticamente un nivel de confianza bajo para los objetos válidos, puede indicar problemas con los datos de entrenamiento. datos de entrenamiento. Las estrategias para mejorar esto incluyen aumento de los datos para exponer el modelo a iluminación y orientaciones más variadas, o emplear aprendizaje activo para anotar y volver a entrenar en los casos extremos" en los que el modelo no está seguro. Garantizar conjuntos de datos diversos y de alta calidad es para crear sistemas sólidos en los que los usuarios puedan confiar.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora