¡Descubre la importancia de la puntuación F1 en el aprendizaje automático! Aprende cómo equilibra la precisión y la exhaustividad para una evaluación óptima del modelo.
La puntuación F1 es una métrica de rendimiento crítica en aprendizaje automático (AM) que se utiliza para precisión de los modelos de clasificación. A diferencia de la precisión simple, que calcula el porcentaje de predicciones correctas, la puntuación F1 combina otras dos métricas vitales: la precisión y la exactitud. F1-Score combina otras dos métricas vitales -Precisión y enun único valor. Se define como la media armónica de precisión y recuperación. Esto hace que especialmente útil para evaluar modelos entrenados en conjuntos de datos conjuntos de datos desequilibrados, en los que el número de muestras de una clase es muy superior al de las demás. En estos casos, un modelo puede alcanzar En estos casos, un modelo puede lograr una gran precisión simplemente prediciendo la clase mayoritaria, pero no identificar la clase minoritaria, que suele ser de mayor interés. mayor interés.
Para entender la puntuación F1, es necesario comprender la tensión entre sus componentes. La precisión mide la calidad de las predicciones positivas (minimizando los falsos positivos), mientras que Recall mide la cantidad de verdaderos positivos identificados (minimizando los falsos negativos). A menudo, el aumento de una de estas métricas se traduce en una disminución de la otra, un fenómeno conocido como precisión-recuerdo. La puntuación F1 ofrece una visión equilibrada al penalizar los valores extremos. Alcanza su mejor valor en 1 (precisión (precisión y recuperación perfectas) y el peor en 0. Este equilibrio es esencial para desarrollar sistemas de modelos predictivos robustos en los que como las falsas alarmas conllevan costes significativos.
La puntuación F1 es indispensable en situaciones en las que el coste del error es elevado o la distribución de los datos está sesgada.
En tareas de visión por ordenador (CV ) como detección de objetos, la puntuación F1 ayuda a determinar un modelo define los límites y clasifica los objetos con umbrales de confianza específicos. Cuando se entrenan modelos como Ultralytics YOLO11el proceso de validación calcula precisión, recuperación y puntuaciones F1 para ayudar a los ingenieros a seleccionar las mejores ponderaciones del modelo.
El siguiente código Python demuestra cómo validar un modelo YOLO11 preentrenado y acceder a las métricas de rendimiento.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Run validation on a dataset like COCO8
# The .val() method computes metrics including Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Print the mean results
# While F1 is computed internally for curves, mAP is the primary summary metric
print(f"Mean Average Precision (mAP50-95): {metrics.box.map}")
print(f"Precision: {metrics.box.mp}")
print(f"Recall: {metrics.box.mr}")
La selección de la métrica adecuada depende de los objetivos específicos del proyecto de IA.
La mejora de la puntuación F1 suele implicar mejoras iterativas del modelo y los datos.