¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Precisión

Descubra la importancia de la precisión en el aprendizaje automático, su cálculo, las limitaciones con conjuntos de datos desequilibrados y las formas de mejorar el rendimiento del modelo.

La exactitud es una de las métricas de evaluación más fundamentales e intuitivas en el aprendizaje automático (ML). Mide la proporción de predicciones correctas realizadas por un modelo del total de predicciones realizadas. Debido a su simplicidad, la exactitud es a menudo la primera métrica que los desarrolladores examinan para obtener una idea general del rendimiento de un modelo de IA, especialmente en las tareas de clasificación. Sirve como una verificación rápida del estado antes de profundizar en evaluaciones más matizadas.

Aplicaciones en el mundo real

La exactitud es un indicador clave de rendimiento en muchos campos donde la clasificación es fundamental. Aquí hay dos ejemplos:

  • Diagnóstico Médico: En la atención médica impulsada por IA, un modelo diseñado para el análisis de imágenes médicas podría ser entrenado para clasificar las imágenes de rayos X como que muestran signos de neumonía o no. Una alta precisión significa que el modelo identifica correctamente la presencia o ausencia de la enfermedad en un alto porcentaje de casos, proporcionando un apoyo fiable a los radiólogos.
  • Control de calidad en la fabricación: En la fabricación inteligente, se puede implementar un sistema de visión artificial para inspeccionar los productos en una cinta transportadora. El modelo clasifica cada artículo como "defectuoso" o "no defectuoso". La alta precisión garantiza que los productos defectuosos se identifiquen correctamente para su eliminación, al tiempo que minimiza el marcado incorrecto de los productos buenos, lo que impacta directamente en la eficiencia y la calidad de la producción.

Limitaciones de la Precisión

A pesar de su utilidad, la precisión puede ser muy engañosa, especialmente cuando se trata de conjuntos de datos desequilibrados. Un conjunto de datos desequilibrado es aquel en el que el número de ejemplos en diferentes clases varía significativamente. Por ejemplo, en la detección de fraudes, las transacciones legítimas superan con creces a las fraudulentas. Un modelo que siempre predice "no fraudulento" podría alcanzar una precisión superior al 99%, pero sería completamente inútil para el propósito previsto. Esto se debe a que no identifica los casos raros pero críticos. Este escenario pone de manifiesto la paradoja de la precisión, en la que una alta puntuación de precisión da una falsa sensación de la eficacia de un modelo.

Exactitud frente a otras métricas

Para obtener una imagen completa del rendimiento de un modelo, es crucial considerar otras métricas junto con la precisión.

  • Precisión: Mide la proporción de predicciones positivas que fueron realmente correctas. Responde a la pregunta: "De todas las predicciones que hice para la clase positiva, ¿cuántas fueron correctas?". Una alta precisión es vital cuando el costo de un falso positivo es alto.
  • Recall: También conocido como sensibilidad, esta métrica mide la proporción de positivos reales que se identificaron correctamente. Responde a la pregunta: "De todos los casos positivos reales, ¿cuántos encontró mi modelo?" Un Recall alto es fundamental cuando el coste de un falso negativo es alto, como en el cribado médico.
  • F1-Score: Esta es la media armónica de precisión y recall, proporcionando una única puntuación que equilibra ambos. Es particularmente útil para evaluar modelos en conjuntos de datos desequilibrados donde tanto los falsos positivos como los falsos negativos son importantes.
  • Matriz de Confusión: Una tabla que visualiza el rendimiento de un modelo de clasificación mostrando los recuentos de verdaderos positivos, verdaderos negativos, falsos positivos y falsos negativos. Proporciona los datos necesarios para calcular la exactitud, la precisión y la exhaustividad (recall).
  • Precisión Media Promedio (mAP): Para tareas más complejas como la detección de objetos, mAP es la métrica estándar. Evalúa no solo la exactitud de la clasificación, sino también la precisión de la localización de los cuadros delimitadores predichos en diferentes niveles de confianza. Para una comprensión más profunda, puede explorar varias comparaciones de modelos.

Mejora de la precisión del modelo

Varias técnicas pueden ayudar a mejorar la precisión del modelo, aunque a menudo implican compromisos con otras métricas o el coste computacional:

Recursos de consultoría como Consejos para el entrenamiento de modelos pueden proporcionar orientación práctica. Plataformas como Ultralytics HUB permiten a los usuarios entrenar modelos y realizar un seguimiento sencillo de la precisión junto con otras métricas clave, a menudo visualizadas mediante herramientas como TensorBoard. El seguimiento del progreso en el campo puede realizarse a través de recursos como el Informe del Índice de IA de Stanford o la exploración de conjuntos de datos en Papers With Code. Marcos de trabajo como PyTorch y TensorFlow se utilizan comúnmente para construir y entrenar estos modelos.

En conclusión, si bien la precisión es una métrica valiosa e intuitiva para evaluar el rendimiento de un modelo de IA, rara vez debe utilizarse de forma aislada. Considerar los objetivos específicos de la tarea de ML y la naturaleza de los datos, especialmente los posibles desequilibrios o los costes variables de los errores, es esencial para seleccionar las métricas de evaluación más adecuadas. La utilización de técnicas de IA Explicable (XAI) también puede proporcionar información más profunda más allá de los valores de una sola métrica.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles