Scopri l'importanza del punteggio F1 nel machine learning! Scopri come bilancia precisione e richiamo per una valutazione ottimale del modello.
L'F1-Score è una metrica critica per le prestazioni in apprendimento automatico (ML) utilizzata per valutare l'accuratezza precisione dei modelli di classificazione. A differenza della semplice accuratezza, che calcola la percentuale di predizioni corrette, l'F1-Score combina altre due metriche vitali: la precisione e l'accuratezza. F1-Score combina altre due metriche vitali - precisione e precisionee richiamo in ununico valore. È definito come la media armonica di precisione e richiamo. Questo rende il F1-Score particolarmente utile per valutare i modelli addestrati su sbilanciati, in cui il numero di campioni di una classe è significativamente superiore a quello delle altre. In questi casi, un modello potrebbe ottenere un modello potrebbe ottenere un'elevata accuratezza semplicemente prevedendo la classe maggioritaria, mentre non riesce a identificare la classe minoritaria che spesso è di maggiore interesse. maggiore interesse.
Per comprendere il punteggio F1, è necessario cogliere la tensione tra le sue componenti. La precisione misura la qualità delle previsioni positive (riducendo al minimo i falsi positivi), mentre Recall misura la quantità di veri positivi identificati (riducendo al minimo i falsi negativi). identificati (riducendo al minimo i falsi negativi). Spesso, l'aumento di una di queste metriche si traduce in una diminuzione dell'altra, un fenomeno conosciuto come fenomeno noto come compromesso tra precisione e richiamo. Il punteggio F1 fornisce una visione equilibrata penalizzando i valori estremi. Raggiunge il suo valore migliore a 1 (precisione e richiamo precisione e richiamo perfetti) e il peggiore a 0. Questo equilibrio è essenziale per lo sviluppo di sistemi di modellazione predittiva robusti, in cui sia i risultati mancati che i richiami sistemi di modellazione predittiva robusti, dove sia i mancati sia i mancati rilevamenti che i falsi allarmi comportano costi significativi.
Il punteggio F1 è indispensabile negli scenari in cui il costo dell'errore è elevato o la distribuzione dei dati è distorta.
Per i compiti di computer vision (CV) come il come l 'individuazione di oggetti, il punteggio F1 aiuta a determinare quanto un modello definisca i confini e classifichi gli oggetti a determinate soglie di confidenza. Quando si addestrano modelli come Ultralytics YOLO11Ultralytics YOLO11 , il processo di convalida calcola precisione, richiamo e punteggio F1 per aiutare gli ingegneri a selezionare i migliori pesi del modello.
Il seguente codice Python mostra come convalidare un modello YOLO11 pre-addestrato e accedere alle metriche delle prestazioni.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Run validation on a dataset like COCO8
# The .val() method computes metrics including Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Print the mean results
# While F1 is computed internally for curves, mAP is the primary summary metric
print(f"Mean Average Precision (mAP50-95): {metrics.box.map}")
print(f"Precision: {metrics.box.mp}")
print(f"Recall: {metrics.box.mr}")
La scelta della metrica giusta dipende dagli obiettivi specifici del progetto di IA.
Il miglioramento del punteggio F1 spesso comporta miglioramenti iterativi del modello e dei dati.