Aprenda qué es el Recall en el aprendizaje automático, por qué es importante y cómo garantiza que los modelos de IA capturen eficazmente las instancias positivas críticas.
La recuperación, a menudo denominada sensibilidad o tasa de verdaderos positivos, es una métrica de rendimiento fundamental que se utiliza para evaluar la eficacia de los modelos de clasificación y detección. En el amplio panorama del aprendizaje automático (ML), la recuperación mide la capacidad de un modelo para identificar todas las instancias relevantes dentro de un conjunto de datos. En pocas palabras, responde a la pregunta crítica: «De todos los casos positivos reales, ¿cuántos encontró con éxito el modelo?». Esta métrica es especialmente importante en escenarios en los que no alcanzar un objetivo —un tipo de error distinto conocido como falso negativo— tiene consecuencias significativas.
Aunque la precisión ofrece una visión general de las predicciones correctas , puede ser engañosa, especialmente cuando se trata de conjuntos de datos desequilibrados. Por ejemplo, si un conjunto de datos contiene 99 pacientes sanos y solo 1 paciente enfermo, un modelo que predice «sano» para todos alcanza una precisión del 99 %, pero un recuerdo del 0 % para la enfermedad. Un recuerdo alto garantiza que el sistema lance una amplia red para capturar tantos verdaderos positivos como sea posible.
Esto suele implicar una compensación con la precisión, que mide la calidad o fiabilidad de las predicciones positivas. Aumentar la recuperación reduciendo el umbral de confianza suele dar lugar a más falsos positivos (falsas alarmas), lo que reduce la precisión. Los ingenieros suelen analizar la curva de precisión-recuperación para encontrar el punto de funcionamiento óptimo para su aplicación específica.
Comprender cómo se relaciona el recuerdo con otras métricas es esencial para interpretar la información de la evaluación del modelo.
La recuperación es la métrica impulsora detrás de muchas soluciones de IA críticas para la seguridad . A continuación se presentan dos ejemplos destacados en los que la sensibilidad tiene prioridad:
Al entrenar modelos como el innovador YOLO26 o el ampliamente utilizado YOLO11, la recuperación se calcula automáticamente durante la fase de validación. El marco calcula la recuperación para cada clase y la precisión media (mAP), lo que ayuda a los desarrolladores a evaluar la capacidad del modelo para encontrar objetos.
Puede validar fácilmente un modelo entrenado y ver sus métricas de recuperación utilizando Python. Este fragmento de código muestra cómo cargar un modelo y comprobar su rendimiento en un conjunto de datos estándar:
from ultralytics import YOLO
# Load a pretrained model (YOLO11 used here for demonstration)
model = YOLO("yolo11n.pt")
# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")
Este código utiliza la Ultralytics para ejecutar la validación. Si la recuperación es inferior a la requerida para su proyecto, puede considerar técnicas como el aumento de datos para crear ejemplos de entrenamiento más variados o el ajuste de hiperparámetros para ajustar la sensibilidad del modelo.