Glosario

Precisión

Descubre la importancia de la precisión en el aprendizaje automático, su cálculo, las limitaciones con conjuntos de datos desequilibrados y las formas de mejorar el rendimiento de los modelos.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La precisión es una de las métricas más fundamentales e intuitivas utilizadas para evaluar el rendimiento de los modelos de Aprendizaje Automático (AM), sobre todo en tareas de clasificación dentro de la Inteligencia Artificial (IA) y la Visión por Ordenador (VC). Representa la proporción de predicciones correctas realizadas por el modelo de IA sobre el número total de predicciones. Aunque es fácil de entender y calcular, basarse únicamente en la precisión a veces puede ser engañoso, sobre todo cuando se trata de determinados tipos de conjuntos de datos o requisitos de problemas específicos.

Cómo se calcula la precisión

La precisión se calcula dividiendo el número de predicciones correctas (tanto verdaderos positivos como verdaderos negativos) por el número total de predicciones realizadas. Por ejemplo, si un modelo identifica correctamente 90 de cada 100 imágenes, su precisión es del 90%. Esta simplicidad lo convierte en un punto de partida popular para evaluar el rendimiento del modelo.

Importancia en la IA y el aprendizaje automático

La precisión proporciona una medida directa de la frecuencia con la que un modelo es correcto en general. Se utiliza mucho durante las fases iniciales del desarrollo del modelo y el entrenamiento del modelo para tener una idea general del rendimiento. Una alta precisión suele ser un objetivo primordial para muchas aplicaciones, ya que indica que el modelo generaliza bien a datos nuevos y desconocidos. Muchos modelos de vanguardia, como Ultralytics YOLO para la detección de objetos, se esfuerzan por conseguir una alta precisión al tiempo que equilibran otros factores como la velocidad. Puedes ver comparaciones como YOLO11 frente a YOLOv8, que a menudo ponen de relieve puntos de referencia de precisión.

Limitaciones de la precisión

A pesar de su intuitividad, la precisión tiene importantes limitaciones:

  • Conjuntos de datos desequilibrados: La precisión puede ser un mal indicador del rendimiento cuando se trata de datos desequilibrados, en los que una clase supera significativamente a las demás. Por ejemplo, al detectar una enfermedad rara (p. ej., prevalencia del 1%), un modelo que siempre predice "ninguna enfermedad" alcanza una precisión del 99%, pero no consigue identificar ningún caso real, lo que lo hace inútil. Esto pone de relieve la importancia de tener en cuenta el posible sesgo del conjunto de datos.
  • Ignorar los tipos de error: La precisión trata todos los errores por igual. Sin embargo, en muchos escenarios del mundo real, el coste de los distintos errores varía. Por ejemplo, clasificar erróneamente un tumor maligno como benigno (falso negativo) suele ser mucho más crítico que clasificar uno benigno como maligno (falso positivo).
  • Paradoja de la Precisión: En algunas situaciones, un modelo menos preciso según la definición estándar podría ser más útil en la práctica. Esto se conoce como la Paradoja de la Precisión.

Distinguir la precisión de otras métricas

Debido a las limitaciones de la precisión, especialmente con datos desequilibrados o costes de error variables, a menudo se prefieren otras métricas o se utilizan junto a ella:

  • Precisión: Mide la proporción de identificaciones positivas que fueron realmente correctas. Una precisión alta es crucial cuando el coste de los falsos positivos es alto (por ejemplo, filtros de spam que marcan correos importantes como spam).
  • Recuperación (Sensibilidad): Mide la proporción de positivos reales que se identificaron correctamente. Una alta recuperación es vital cuando el coste de los falsos negativos es elevado (por ejemplo, omitir un diagnóstico).
  • Puntuación F1: La media armónica de Precisión y Recuperación, que proporciona un equilibrio entre ambas. Es útil cuando tanto los falsos positivos como los falsos negativos son importantes.
  • Precisión media (mAP): Una métrica habitual en la detección de objetos que tiene en cuenta tanto la precisión de clasificación como la precisión de localización (IoU) en diferentes niveles de recuerdo.
  • Matriz de la confusión: Tabla que visualiza el rendimiento de un algoritmo de clasificación, mostrando los verdaderos positivos, los verdaderos negativos, los falsos positivos y los falsos negativos, que ayuda a calcular la precisión, el recuerdo y la exactitud.
  • Curvas ROC y AUC: Visualizan el equilibrio entre la tasa de verdaderos positivos (Recall) y la tasa de falsos positivos con distintos ajustes de umbral.

Comprender estas diferentes métricas de rendimientoYOLO permite una evaluación más matizada del rendimiento del modelo, adaptada a las necesidades específicas.

Aplicaciones AI/ML en el mundo real

  1. Análisis de imágenes médicas: En tareas como la detección de tumores mediante YOLO11, aunque se tiene en cuenta la precisión general, a menudo se da prioridad a métricas como Recall (sensibilidad) para minimizar el riesgo de pasar por alto tumores reales (falsos negativos). Las soluciones de la IA en la Asistencia Sanitaria deben equilibrar cuidadosamente estas métricas.
  2. Vehículos autónomos: Para las soluciones de IA en Automoción, los modelos de detección de objetos necesitan una gran precisión en la identificación de peatones, vehículos y obstáculos. Sin embargo, no basta con medir la precisión global; las métricas como el mAP son fundamentales para garantizar tanto una clasificación correcta como una localización precisa( prediccióndel cuadro delimitador ) para la seguridad.

Mejorar la precisión del modelo

Varias técnicas pueden ayudar a mejorar la precisión del modelo, aunque a menudo implican compensaciones con otras métricas o con el coste computacional:

Los recursos de consultoría como Model Training Tips pueden proporcionar orientación práctica. Plataformas como Ultralytics HUB permiten a los usuarios entrenar modelos y realizar fácilmente un seguimiento de la precisión junto con otras métricas clave, a menudo visualizadas mediante herramientas como TensorBoard. Se puede hacer un seguimiento de los avances en este campo mediante recursos como el Stanford AI Index Report o consultando conjuntos de datos en Papers With Code. Frameworks como PyTorch (ver sitio oficial) y TensorFlow (ver sitio oficial) se utilizan habitualmente para construir y entrenar estos modelos.

En conclusión, aunque la precisión es una métrica valiosa e intuitiva para evaluar el rendimiento de los modelos de IA, rara vez debe utilizarse de forma aislada. Tener en cuenta los objetivos específicos de la tarea de ML y la naturaleza de los datos, especialmente los desequilibrios potenciales o los costes variables de los errores, es esencial para seleccionar las métricas de evaluación más adecuadas, como la precisión, la recuperación, la puntuación F1 o el mAP. Utilizar técnicas de IA Explicable (XAI ) también puede proporcionar una visión más profunda más allá de los valores de una sola métrica.

Leer todo