Scopri l'importanza del richiamo nell'apprendimento automatico. Impara a misurare e migliorare la sensibilità dei modelli Ultralytics per garantire elevati tassi di rilevamento.
Il richiamo, noto anche come sensibilità o tasso di veri positivi, è una metrica di prestazione fondamentale nell'apprendimento automatico che misura la capacità di un modello di identificare tutte le istanze rilevanti all'interno di un set di dati. Nel contesto del rilevamento o della classificazione degli oggetti, risponde in modo specifico alla domanda: "Tra tutti i casi positivi effettivi, quanti sono stati correttamente individuati dal modello ?" Ottenere un richiamo elevato è fondamentale in scenari in cui la mancata individuazione di un'istanza positiva, spesso denominata falso negativo, comporta conseguenze significative. A differenza dell' accuratezza, che può essere fuorviante quando si ha a che fare con dati sbilanciati, il richiamo fornisce una visione mirata dell'efficacia del modello nel "catturare" la classe target .
In molte applicazioni di intelligenza artificiale, il costo della mancata detect oggetto è molto più elevato del costo di un falso allarme. Un modello ottimizzato per il richiamo riduce al minimo i falsi negativi, garantendo che il sistema crei una rete sufficientemente ampia da catturare potenziali minacce, anomalie o condizioni critiche. Ciò comporta spesso un compromesso, poiché aumentare il richiamo può talvolta portare a un punteggio di precisione inferiore , il che significa che il modello potrebbe segnalare come positivi più elementi non rilevanti. Comprendere questo equilibrio è fondamentale per sviluppare soluzioni di apprendimento automatico robuste .
Il richiamo è la metrica trainante alla base di molte soluzioni di intelligenza artificiale critiche per la sicurezza . Ecco due esempi significativi in cui la sensibilità ha la precedenza:
È essenziale distinguere il richiamo dalla sua controparte, la precisione. Mentre il richiamo misura la quantità di casi rilevanti trovati (completezza), la precisione misura la qualità delle previsioni positive (esattezza).
Queste due metriche spesso condividono una relazione inversa, visualizzata attraverso una curva di precisione-richiamo. Per valutare l'equilibrio complessivo tra loro, gli sviluppatori spesso guardano al punteggio F1, che è la media armonica di entrambi. In set di dati sbilanciati, guardare al richiamo insieme alla matrice di confusione fornisce un quadro molto più chiaro delle prestazioni rispetto alla sola accuratezza.
Quando si addestrano modelli come l'avanzato YOLO26, il richiamo viene calcolato automaticamente durante la fase di convalida. Il framework calcola il richiamo per ogni classe e la precisione media (mAP), aiutando gli sviluppatori a valutare l'efficacia del modello nel trovare gli oggetti.
È possibile convalidare facilmente un modello addestrato e visualizzarne le metriche di richiamo utilizzando Python. Questo snippet mostra come caricare un modello e verificarne le prestazioni su un set di dati standard:
from ultralytics import YOLO
# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")
Questo codice utilizza Ultralytics per eseguire la convalida. Se il richiamo è inferiore a quello richiesto dal vostro progetto, potreste prendere in considerazione tecniche come l' aumento dei dati per creare esempi di addestramento più vari o la regolazione degli iperparametri per adeguare la sensibilità del modello. L'utilizzo della Ultralytics può anche semplificare il processo di gestione dei set di dati e il monitoraggio di queste metriche su più cicli di addestramento.
Per aumentare il richiamo di un modello, i data scientist spesso regolano la soglia di confidenza utilizzata durante l' inferenza. Abbassando la soglia, il modello diventa più "ottimista" e accetta un maggior numero di previsioni come positive, il che aumenta il richiamo ma può diminuire la precisione. Inoltre, raccogliere dati di addestramento più diversificati aiuta il modello a imparare a riconoscere i negativi difficili e i casi oscuri. Per compiti complessi, l'utilizzo di architetture avanzate come i blocchi Transformer o l'esplorazione di metodi ensemble può anche migliorare la capacità del sistema di detect caratteristiche detect che i modelli più semplici potrebbero non cogliere.