Glosario

Recall

Aprenda qué es la recuperación en el aprendizaje automático, por qué es importante y cómo garantiza que los modelos de IA capturen instancias positivas críticas de forma eficaz.

La recuperación, también conocida como sensibilidad o tasa de verdaderos positivos, es una métrica de evaluación fundamental en el aprendizaje automático (AM) y la estadística. Mide la capacidad de un modelo para identificar correctamente todos los casos relevantes de un conjunto de datos. En términos sencillos, Recall responde a la pregunta: "De todas las instancias positivas reales, ¿cuántas predijo correctamente el modelo como positivas?". Una puntuación Recall alta indica que el modelo es eficaz a la hora de encontrar lo que se supone que debe encontrar, minimizando el número de casos positivos omitidos (falsos negativos). Esta métrica es especialmente importante en aplicaciones en las que no detectar un caso positivo tiene consecuencias importantes.

La importancia de una gran capacidad de recuperación

En muchos escenarios del mundo real, el coste de un falso negativo (no detectar) es mucho mayor que el coste de un falso positivo (una falsa alarma). Aquí es donde resulta esencial dar prioridad a una alta recuperación. Por ejemplo, en tareas como el análisis de imágenes médicas o la detección de fraudes, un modelo de alta recuperación garantiza que se capturen tantos casos verdaderos como sea posible para su posterior revisión, incluso si esto significa que algunos no casos se marcan incorrectamente.

  • Diagnóstico médico: en un sistema basado en IA para detectar el cáncer a partir de escáneres médicos, es crucial contar con un modelo de alta capacidad de recuperación. Es mucho mejor que el sistema marque a un paciente sano para que lo revise un radiólogo (un falso positivo) a que no detecte un tumor canceroso (un falso negativo), lo que podría retrasar un tratamiento que podría salvarle la vida. Muchas soluciones de IA en sanidad están optimizadas para una alta sensibilidad.
  • Seguridad y vigilancia: Para un sistema de alarma de seguridad diseñado para detectar intrusos, es primordial una alta capacidad de recuperación. El sistema debe identificar cualquier amenaza potencial, aunque a veces confunda a un animal con un intruso. Pasar por alto una auténtica violación de la seguridad haría que el sistema resultara ineficaz.

Recuperación en los modelos YOLO de Ultralytics

En el contexto de la visión por ordenador (CV) y de modelos como Ultralytics YOLO, la recuperación es una métrica clave que se utiliza junto con la precisión y la precisión media (mAP) para evaluar el rendimiento en tareas como la detección de objetos y la segmentación de instancias. Lograr un buen equilibrio entre Recall y Precision suele ser esencial para obtener un rendimiento sólido en el mundo real. Por ejemplo, cuando se comparan modelos como YOLOv8 frente a YOLO11, Recall ayuda a comprender lo bien que cada modelo identifica todos los objetos objetivo. Los usuarios pueden entrenar modelos personalizados utilizando marcos como PyTorch o TensorFlow y realizar un seguimiento de la recuperación utilizando herramientas como Weights & Biases o las funciones integradas en Ultralytics HUB. Comprender la recuperación ayuda a optimizar los modelos para casos de uso específicos, lo que puede implicar el ajuste de hiperparámetros o la exploración de diferentes arquitecturas de modelos como YOLOv10 o la última YOLO11. Recursos como la documentación de Ultralytics ofrecen guías completas sobre formación y evaluación.

Recuperación frente a otras métricas

Es importante diferenciar Recall de otras métricas de evaluación habituales.

  • Precisión: Mientras que Recall se centra en encontrar todas las muestras positivas, Precision mide la precisión de las predicciones positivas realizadas. Responde a: "De todas las instancias que el modelo predijo como positivas, ¿cuántas fueron realmente positivas?". A menudo existe un equilibrio entre Precisión y Recall; el aumento de una puede disminuir la otra. Este concepto se conoce como compromiso Precisión-Recuperación.
  • Precisión: Mide el porcentaje total de predicciones correctas (tanto positivas como negativas). La precisión puede ser una medida engañosa en conjuntos de datos desequilibrados, en los que una clase supera ampliamente a la otra. Por ejemplo, en un conjunto de datos con un 99% de muestras negativas, un modelo que predice todo como negativo alcanza un 99% de precisión, pero tiene cero Recall para la clase positiva.
  • Puntuación F1: Es la media armónica de Precision y Recall. La puntuación F1 proporciona un único número que equilibra ambas métricas, lo que la convierte en una medida útil cuando es necesario tener en cuenta tanto los falsos positivos como los falsos negativos. Suele utilizarse cuando la distribución de clases es desigual.
  • Área bajo la curva (AUC): Específicamente para la clasificación binaria, la curva ROC (Receiver Operating Characteristic ) traza la tasa de verdaderos positivos (Recall) frente a la tasa de falsos positivos. El AUC proporciona una única puntuación que resume el rendimiento del modelo en todos los umbrales de clasificación. El área bajo la curva Precisión-Recuperación (AUC-PR) suele ser más informativa para tareas de clasificación desequilibradas.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles