Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Precisión

Descubra la importancia de la precisión en el aprendizaje automático, su cálculo, las limitaciones con conjuntos de datos desequilibrados y las formas de mejorar el rendimiento del modelo.

La precisión sirve como punto de referencia fundamental en la evaluación de los sistemas de inteligencia artificial, cuantificando el porcentaje de predicciones correctas que realiza un modelo en relación con el número total de predicciones. En el contexto del aprendizaje automático y, más concretamente, del aprendizaje supervisado, esta métrica proporciona una instantánea de alto nivel de la eficacia con la que un algoritmo se alinea con la verdad fundamental proporcionada durante el proceso de entrenamiento. Si bien es la medida más intuitiva del rendimiento —respondiendo a la sencilla pregunta «¿Con qué frecuencia acierta el modelo ?»—, actúa como indicador principal de la fiabilidad de un sistema antes de que los desarrolladores se sumerjan en métricas más granulares .

Los matices de la evaluación del rendimiento

Si bien la precisión es un excelente punto de partida, es más eficaz cuando se aplica a datos de entrenamiento equilibrados en los que todas las clases están representadas por igual. Por ejemplo, en una tarea estándar de clasificación de imágenes que distingue entre gatos y perros, si el conjunto de datos contiene 500 imágenes de cada uno, la precisión es una métrica fiable. Sin embargo, surgen dificultades con conjuntos de datos desequilibrados, lo que da lugar a la «paradoja de la precisión».

Si se entrena un modelo para la detección de fraudes en el que solo el 1 % de las transacciones son fraudulentas, un modelo que simplemente prediga que todas las transacciones son «legítimas» alcanzaría una precisión del 99 %, pero fracasaría por completo en su tarea prevista. Para mitigar esto, los ingenieros suelen utilizar Ultralytics para visualizar la distribución de los conjuntos de datos y asegurarse de que los modelos no se limitan a memorizar la clase mayoritaria.

Distinguir la precisión de términos relacionados

Para comprender plenamente el rendimiento del modelo, es fundamental diferenciar la precisión de otras métricas similares:

  • Precisión: Mide la calidad de las predicciones positivas. Pregunta: «De todos los casos predichos como positivos, ¿cuántos eran realmente positivos?».
  • Recuerdo: También conocido como sensibilidad, este mide la capacidad del modelo para encontrar todos los casos relevantes. Pregunta: «De todos los casos positivos reales, ¿cuántos identificó correctamente el modelo?».
  • Puntuación F1: Es la media armónica de la precisión y la recuperación, lo que proporciona una puntuación única que equilibra ambas, lo que resulta especialmente útil para distribuciones de clases desiguales .

Mientras que la exactitud proporciona una visión global de la corrección, la precisión y la recuperación ofrecen información sobre tipos específicos de errores, como los falsos positivos o los falsos negativos.

Aplicaciones en el mundo real

La utilidad de la precisión se extiende a diversas industrias, validando la fiabilidad de la visión artificial y los modelos predictivos en entornos críticos.

  • Diagnóstico médico: En el campo del análisis de imágenes médicas, los modelos se utilizan para classify o resonancias magnéticas. Un modelo que clasifica las exploraciones como «sanas» o «patológicas» se basa en una alta precisión para garantizar que los pacientes reciban diagnósticos correctos. Las innovaciones en IA en el ámbito sanitario dependen en gran medida de una rigurosa validación para minimizar los errores automatizados.
  • Control de calidad en la fabricación: Los sistemas automatizados en la fabricación inteligente utilizan la inspección visual para identificar defectos en las líneas de montaje. Su alta precisión garantiza que solo se envíen productos sin defectos, lo que reduce los residuos y los costes de garantía. Al emplear la detección de objetos para detectar fallos, las fábricas mantienen los estándares de producción de forma automática.

Medición de la precisión en el código

En situaciones prácticas utilizando Python, los desarrolladores pueden medir fácilmente la precisión de un modelo utilizando bibliotecas establecidas. El siguiente ejemplo muestra cómo validar un modelo de clasificación YOLO26 para obtener su precisión top-1. La precisión top-1 se refiere a la frecuencia con la que la predicción de mayor probabilidad del modelo coincide con la etiqueta correcta .

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Validate the model on a standard dataset (e.g., MNIST)
metrics = model.val(data="mnist")

# Print the Top-1 Accuracy
print(f"Top-1 Accuracy: {metrics.top1:.4f}")

Estrategias para la mejora

Cuando un modelo adolece de baja precisión, se pueden emplear varias técnicas para mejorar el rendimiento. Los ingenieros suelen utilizar el aumento de datos para incrementar artificialmente la diversidad del conjunto de entrenamiento, evitando así que el modelo se sobreajuste. Además, el ajuste de hiperparámetros—modificar parámetros como la tasa de aprendizaje— puede influir significativamente en la convergencia. En el caso de tareas complejas, el aprendizaje por transferencia permite a un modelo aprovechar los conocimientos de un conjunto de datos grande y preentrenado (como ImageNet) para lograr una mayor precisión en un conjunto de datos más pequeño y específico.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora