Glossario

Richiamo

Scoprite cos'è il richiamo nell'apprendimento automatico, perché è importante e come assicura che i modelli di IA catturino efficacemente le istanze positive critiche.

Il richiamo, noto anche come sensibilità o tasso di veri positivi, è una metrica di valutazione fondamentale nell'apprendimento automatico (ML) e nella statistica. Misura la capacità di un modello di identificare correttamente tutte le istanze rilevanti all'interno di un set di dati. In termini semplici, il richiamo risponde alla domanda: "Di tutte le istanze effettivamente positive, quante ne ha correttamente previste il modello come positive?". Un punteggio Recall elevato indica che il modello è efficace nel trovare ciò che dovrebbe trovare, riducendo al minimo il numero di casi positivi mancati (falsi negativi). Questa metrica è particolarmente critica nelle applicazioni in cui il mancato rilevamento di un caso positivo ha conseguenze significative.

L'importanza di un elevato richiamo

In molti scenari reali, il costo di un falso negativo (mancato rilevamento) è molto più alto di quello di un falso positivo (un falso allarme). È qui che la priorità di un alto richiamo diventa essenziale. Ad esempio, in attività come l'analisi di immagini mediche o il rilevamento di frodi, un modello ad alto richiamo garantisce che il maggior numero possibile di casi veri venga catturato per un'ulteriore revisione, anche se ciò significa che alcuni casi non veri vengono segnalati in modo errato.

  • Diagnosi medica: in un sistema alimentato dall'intelligenza artificiale per rilevare il cancro dalle scansioni mediche, un modello ad alto richiamo è fondamentale. È molto meglio che il sistema segnali un paziente sano per la revisione da parte di un radiologo (un falso positivo) che non individuare un tumore canceroso (un falso negativo), il che potrebbe ritardare un trattamento salvavita. Molte soluzioni di IA nel settore sanitario sono ottimizzate per ottenere un'elevata sensibilità.
  • Sicurezza e sorveglianza: Per un sistema di allarme di sicurezza progettato per rilevare gli intrusi, è fondamentale un elevato richiamo. Il sistema deve identificare ogni potenziale minaccia, anche se occasionalmente scambia un animale randagio per un intruso. La mancata individuazione di una vera e propria violazione della sicurezza renderebbe il sistema inefficace.

Richiamo nei modelli YOLO di Ultralytics

Nel contesto della computer vision (CV) e di modelli come Ultralytics YOLO, il richiamo è una metrica chiave utilizzata insieme alla precisione e alla precisione media (mAP) per valutare le prestazioni in compiti come il rilevamento di oggetti e la segmentazione di istanze. Il raggiungimento di un buon equilibrio tra Recall e Precision è spesso essenziale per ottenere solide prestazioni nel mondo reale. Ad esempio, quando si confrontano modelli come YOLOv8 e YOLO11, il richiamo aiuta a capire quanto bene ciascun modello identifichi tutti gli oggetti target. Gli utenti possono addestrare modelli personalizzati utilizzando framework come PyTorch o TensorFlow e tracciare il Recall utilizzando strumenti come Weights & Biases o le funzioni integrate in Ultralytics HUB. La comprensione del richiamo aiuta a ottimizzare i modelli per casi d'uso specifici, potenzialmente coinvolgendo la regolazione degli iperparametri o l'esplorazione di diverse architetture di modelli come YOLOv10 o il più recente YOLO11. Risorse come la documentazione di Ultralytics offrono guide complete sulla formazione e la valutazione.

Richiamo e altre metriche

È importante distinguere il richiamo da altre metriche di valutazione comuni.

  • Precisione: Mentre il richiamo si concentra sulla ricerca di tutti i campioni positivi, la precisione misura l'accuratezza delle previsioni positive fatte. Risponde a: "Di tutti i casi che il modello ha previsto come positivi, quanti erano effettivamente positivi?". Spesso esiste un compromesso tra Precisione e Richiamo; l'aumento di una può diminuire l'altra. Questo concetto è noto come compromesso tra precisione e richiamo.
  • Precisione: Misura la percentuale complessiva di previsioni corrette (sia positive che negative). L'accuratezza può essere un parametro fuorviante per i set di dati sbilanciati, in cui una classe è nettamente superiore all'altra. Ad esempio, in un set di dati con il 99% di campioni negativi, un modello che predice tutto come negativo ottiene un'accuratezza del 99% ma ha un Recall pari a zero per la classe positiva.
  • Punteggio F1: È la media armonica di Precision e Recall. Il punteggio F1 fornisce un singolo numero che bilancia entrambe le metriche, rendendolo una misura utile quando è necessario considerare sia i falsi positivi che i falsi negativi. Viene spesso utilizzato quando la distribuzione delle classi non è uniforme.
  • Area sotto la curva (AUC): Specificamente per la classificazione binaria, la curva ROC (Receiver Operating Characteristic) traccia il tasso di veri positivi (Recall) rispetto al tasso di falsi positivi. L'AUC fornisce un singolo punteggio che riassume le prestazioni del modello su tutte le soglie di classificazione. L'area sotto la curva Precision-Recall (AUC-PR) è spesso più informativa per compiti di classificazione sbilanciati.

Unitevi alla comunità di Ultralytics

Entrate a far parte del futuro dell'IA. Connettetevi, collaborate e crescete con gli innovatori globali.

Iscriviti ora
Link copiato negli appunti