Glosario

Precisión media (mAP)

Descubra la importancia de la precisión media (mAP) en la evaluación de modelos de detección de objetos para aplicaciones de IA como la conducción autónoma y la asistencia sanitaria.

La precisión media (Mean Average Precision, mAP) es una métrica muy utilizada para evaluar el rendimiento de los modelos de detección de objetos, como los de la popular familia YOLO de Ultralytics. Proporciona una puntuación única y completa que resume la capacidad de un modelo para identificar y localizar correctamente objetos en varias clases y niveles de confianza. A diferencia de otras métricas más sencillas, el mAP equilibra eficazmente el compromiso entre encontrar todos los objetos relevantes(recall) y garantizar que los objetos encontrados son realmente correctos(precisión), por lo que resulta crucial para evaluar los modelos utilizados en aplicaciones complejas como los sistemas autónomos y los diagnósticos médicos. Entender el mAP es esencial para cualquiera que participe en el desarrollo o la implantación de modelos de visión por ordenador (VC ).

Comprender los conceptos básicos: Precisión y recuperación

Para entender mAP, es esencial comprender primero Precision y Recall. En el contexto de la detección de objetos:

  • Precisión: Mide cuántos de los objetos identificados fueron realmente correctos. Una precisión alta significa que el modelo hace pocas predicciones positivas falsas.
  • Recuerdo: Mide cuántos de los objetos reales presentes fueron identificados correctamente por el modelo. Una recuperación alta significa que el modelo encuentra la mayoría de los objetos relevantes (pocos falsos negativos).

Estas dos métricas a menudo tienen una relación inversa; mejorar una a veces puede disminuir la otra. mAP proporciona una forma de evaluar el modelo a través de diferentes puntos de esta compensación, ofreciendo una visión más equilibrada del rendimiento. Puede obtener más información sobre los fundamentos de Precision y Recall en Wikipedia.

Cómo se calcula el mAP

El cálculo del mAP consta de varios pasos, lo que proporciona una evaluación sólida del rendimiento de un modelo en diferentes clases de objetos y umbrales de detección:

  1. Clasificación por confianza: Para cada clase de objeto, las predicciones del modelo ( cuadros delimitadores detectados) se ordenan en función de sus puntuaciones de confianza, de mayor a menor.
  2. Curva Precisión-Recuperación: Se genera una curva Precisión-Recuperación para cada clase. Esta curva compara la precisión con los valores de recuperación calculados con distintos umbrales de confianza. A medida que disminuye el umbral, la recuperación suele aumentar (se detectan más objetos), mientras que la precisión puede disminuir (se incluyen más falsos positivos).
  3. Precisión media (PA): la precisión media (PA) de una clase se calcula como el área bajo su curva Precisión-Recuperación. Esto proporciona un número único que resume el rendimiento del modelo para esa clase específica en todos los niveles de recuperación. Existen distintos métodos para aproximar esta área.
  4. Precisión media (mAP): Por último, la mAP se calcula promediando los valores AP de todas las clases de objetos del conjunto de datos. Así se obtiene una puntuación global del rendimiento del modelo en todo el conjunto de datos.

A menudo, el mAP se notifica en umbrales específicos de intersección sobre unión (IoU ). IoU mide el solapamiento entre el cuadro delimitador previsto y el cuadro delimitador real. Las variantes de mAP más comunes son:

  • mAP@0.5 (o mAP50): Calculado utilizando un umbral de IoU fijo de 0,5. Se trata de una métrica estándar utilizada en evaluaciones comparativas como el desafío PASCAL VOC. Una detección sólo se considera correcta si su IoU con la verdad sobre el terreno es igual o superior a 0,5.
  • mAP@.5:.95 (o mAP[.5:.95]): Se calcula promediando el mAP a través de múltiples umbrales de IoU, normalmente de 0,5 a 0,95 con un paso de 0,05. Esta métrica, utilizada habitualmente en la evaluación del conjunto de datos COCO, proporciona una evaluación más exhaustiva al considerar el rendimiento con distintos requisitos de precisión de localización.

Para conocer en detalle cómo se aplican estas métricas específicamente a los modelos YOLO, consulte la guía Métricas de rendimiento YOLO de Ultralytics.

Por qué es importante el mAP

La precisión media es vital porque ofrece una visión holística del rendimiento de un modelo de detección de objetos. Tiene en cuenta simultáneamente la precisión de la clasificación (¿es correcta la clase de objeto?) y la precisión de la localización (¿se ha colocado correctamente el cuadro delimitador?) en todas las clases definidas en los datos de entrenamiento. Esto hace que sea más informativo que considerar la precisión o la recuperación de forma aislada, especialmente en conjuntos de datos con múltiples categorías de objetos o distribuciones de clases desequilibradas. Una puntuación mAP más alta suele indicar un modelo de detección de objetos más robusto y fiable. Técnicas como el aumento cuidadoso de datos, el ajuste de hiperparámetros y la elección de una arquitectura de modelo adecuada (como YOLO11) son estrategias habituales para mejorar el mAP.

Aplicaciones reales

El mAP es fundamental a la hora de evaluar modelos para tareas del mundo real en las que la precisión y la fiabilidad son primordiales:

Otras aplicaciones son la vigilancia de la seguridad, la robótica(integración de la visión por ordenador en la robótica), el análisis del comerciominorista (IA para una gestión más inteligente del inventario minorista) y la agricultura.

mAP frente a otras métricas

Es importante distinguir mAP de las métricas de evaluación relacionadas que se utilizan en el aprendizaje automático (ML):

  • Precisión: Principalmente utilizada en tareas de clasificación, la precisión mide la proporción global de predicciones correctas (tanto verdaderos positivos como verdaderos negativos) entre el número total de instancias. No evalúa directamente la calidad de la localización y puede inducir a error en la detección de objetos, especialmente con conjuntos de datos desequilibrados en los que predomina la clase de fondo.
  • Intersección sobre Unión (IoU): Mide el solapamiento espacial entre un cuadro delimitador previsto y un cuadro delimitador real. Mientras que IoU evalúa la calidad de la localización para detecciones individuales, mAP incorpora umbrales IoU (como 0,5 o el rango 0,5:0,95) para determinar si una detección se considera un verdadero positivo y, a continuación, agrega el rendimiento entre clases y niveles de confianza. El IoU es un componente que se utiliza en el cálculo del mAP, no lo sustituye.

Comprender estas diferencias es crucial para seleccionar la métrica adecuada en función de la tarea específica y los objetivos de la evaluación. Para más información, consulte la guía Evaluación y ajuste del modelo.

Herramientas y puntos de referencia

Herramientas como Ultralytics HUB permiten a los usuarios entrenar, seguir y evaluar modelos, destacando mAP como un indicador clave de rendimiento durante los procesos de entrenamiento y validación del modelo. Los marcos de ML como PyTorch y TensorFlow proporcionan los componentes básicos para construir y entrenar estos modelos de detección de objetos. Conjuntos de datos estandarizados como COCO y PASCAL VOC utilizan mAP como métrica principal para comparar modelos de detección de objetos en tablas de clasificación públicas y artículos de investigación, impulsando el progreso en este campo. En las páginas de comparación de modelos de Ultralytics puede explorar y comparar el rendimiento de varios modelos, a menudo medido por mAP.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles