Aprenda qué es el Recall en el aprendizaje automático, por qué es importante y cómo garantiza que los modelos de IA capturen eficazmente las instancias positivas críticas.
La recuperación, también conocida como sensibilidad o tasa de verdaderos positivos, es una para medir la capacidad de un modelo de capacidad de un modelo de aprendizaje automático (ML ) para identificar todas las instancias relevantes de un conjunto de datos. En esencia, la recuperación responde a la pregunta concreta "De todos los casos positivos reales, ¿cuántos detect con éxito el modelo?". Esta métrica se centra especialmente en minimizar los falsos negativos, garantizando que no se pasen por alto eventos u objetos críticos. Mientras que La precisión proporciona una visión general del rendimiento, la recuperación se convierte en el principal indicador del éxito en situaciones en las que no detectar un objetivo conlleva un coste mayor que una falsa alarma. falsa alarma.
En muchas tareas de visión por ordenador (VC) y análisis de datos el coste de los errores no es uniforme. No detect un caso positivo (un error de tipo II) a veces puede ser peligroso o costoso. Una alta recuperación garantiza que el sistema lanza una amplia red para capturar el mayor número posible de verdaderos positivos. posibles. Esto se consigue a menudo ajustando el umbral de confianza durante la inferencia. de confianza durante la inferencia; reducir el umbral suele aumentar la recuperación, pero puede dar lugar a más falsos positivos.
Los ingenieros suelen analizar la curva precisión-recuerdo para comprender las compensaciones inherentes a sus modelos. Un modelo con un 100% de recuperación ha encontrado todos los objetos objetivo, aunque también puede haber etiquetado incorrectamente algunos ruidos de fondo como objetivos.
La recuperación es la métrica que impulsa muchas soluciones de críticas para la seguridad. He aquí dos ejemplos destacados en los que prioridad:
Comprender la diferencia entre recall y las métricas relacionadas es crucial para interpretar los resultados de la evaluación de modelos.
Al desarrollar modelos con el Ultralytics YOLO11 la memoria se calcula automáticamente automáticamente durante el proceso de validación. El marco calcula la recuperación para cada clase y la precisión media (mAP), lo que ayuda a los a los desarrolladores a evaluar la eficacia del modelo para encontrar objetos.
Puede validar fácilmente un modelo entrenado y ver sus métricas de recuperación utilizando Python:
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")
# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")
Este fragmento de código carga un YOLO11 y ejecuta la validación en el conjunto de datosCOCO8 . La salida El resultado ofrece un desglose exhaustivo del rendimiento, lo que le permite evaluar si su modelo cumple los requisitos de recuperación necesarios para su aplicación específica. necesarios para su aplicación específica. Si la recuperación es demasiado baja, puede plantearse técnicas como aumento de datos o o el ajuste de hiperparámetros para mejorar la sensibilidad.