Descubra la importancia de la precisión en el aprendizaje automático, su cálculo, las limitaciones con conjuntos de datos desequilibrados y las formas de mejorar el rendimiento del modelo.
La precisión es uno de los parámetros fundamentales para evaluar el rendimiento de un modelo de clasificación. En representa la proporción de predicciones correctas realizadas por el sistema sobre el número total de predicciones procesadas. En el panorama más amplio del aprendizaje automático (AM), la precisión suele ser la primera En el panorama más amplio del aprendizaje automático (AM), la precisión suele ser la primera cifra que revisan los desarrolladores para evaluar si un modelo está aprendiendo de forma eficaz o simplemente adivinando. Aunque proporciona una instantánea rápida de la eficacia, a menudo se utiliza junto con otras métricas de evaluación para la comprensión global del comportamiento del modelo, sobre todo cuando se trata de distinguir entre clases en conjuntos de datos complejos.
El cálculo de la precisión es sencillo, lo que lo hace muy accesible para las partes interesadas, desde científicos de datos hasta ejecutivos de empresas. científicos de datos hasta ejecutivos de empresas. Se define matemáticamente como el número de verdaderos positivos y verdaderos negativos dividido por el número total de casos. En tareas de aprendizaje supervisado, esta métrica indica la frecuencia con la que el algoritmo se alinea con la verdad básica proporcionada en los datos de entrenamiento. Sin embargo, una alta precisión no siempre su fiabilidad depende en gran medida de la distribución de los datos subyacentes.
La precisión desempeña un papel fundamental en diversos sectores en los que la toma de decisiones automatizada ayuda a los expertos humanos.
Al desarrollar modelos con el ultralytics la evaluación de la precisión forma parte del flujo de trabajo de validación.
flujo de trabajo de validación. El siguiente ejemplo muestra cómo cargar un paquete
YOLO11 modelo de clasificación y validarlo para obtener
métricas de precisión.
from ultralytics import YOLO
# Load a pretrained YOLO11 classification model
model = YOLO("yolo11n-cls.pt")
# Validate the model on the MNIST160 dataset
# The function returns a metrics object containing top1 and top5 accuracy
metrics = model.val(data="mnist160")
# Display the Top-1 accuracy (percentage of times the top prediction was correct)
print(f"Top-1 Accuracy: {metrics.top1:.2f}")
Aunque intuitiva, la precisión puede ser engañosa cuando se trata de un conjunto de datos desequilibrado. un conjunto de datos desequilibrado. Este fenómeno se conoce como la paradoja de la precisión. Por ejemplo, en un escenario de detección de fraudes en el que sólo el 1% de las de las transacciones son fraudulentas, un modelo que se limite a predecir "legítimo" para cada transacción alcanzará una precisión del 99%. 99% de precisión. Sin embargo, fracasaría completamente en su tarea principal de detectar el fraude. En estos casos, el modelo muestra una alta precisión, pero un poder predictivo nulo para la clase minoritaria.
Para ello, los profesionales emplean de datos para equilibrar las clases o diferentes métricas que diseccionan los tipos de errores que se cometen.
Para comprender plenamente el rendimiento de un modelo, hay que distinguir la precisión de los términos relacionados:
Mejorar la precisión implica un proceso iterativo de experimentación. Los desarrolladores suelen utilizar ajuste de hiperparámetros para ajustar aprendizaje y el tamaño de los lotes para una convergencia óptima. Además, el empleo de arquitecturas avanzadas como Transformers o las últimas iteraciones de Ultralytics YOLO pueden reportar beneficios significativos. Por último, garantizar que el conjunto de datos de formación sea limpio y diverso mediante el aprendizaje activo ayuda a que el modelo generalice mejor. aprendizaje activo ayuda al modelo a generalizar mejor a los datos no vistos del mundo real.