Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Recall

Scopri cos'è il Recall nel machine learning, perché è importante e come garantisce che i modelli di IA catturino efficacemente le istanze positive critiche.

Il recall, noto anche come sensibilità o true positive rate, è una metrica di valutazione fondamentale nel machine learning (ML) e nella statistica. Misura la capacità di un modello di identificare correttamente tutte le istanze rilevanti all'interno di un set di dati. In termini semplici, il recall risponde alla domanda: "Di tutte le istanze positive effettive, quante ne ha previste correttamente il modello come positive?" Un punteggio di recall elevato indica che il modello è efficace nel trovare ciò che dovrebbe trovare, riducendo al minimo il numero di casi positivi mancati (falsi negativi). Questa metrica è particolarmente critica nelle applicazioni in cui la mancata individuazione di un caso positivo ha conseguenze significative.

L'importanza di un'alta recall

In molti scenari del mondo reale, il costo di un falso negativo (mancata rilevazione) è molto più alto del costo di un falso positivo (falso allarme). È qui che diventa essenziale dare priorità a un Recall elevato. Ad esempio, in attività come l'analisi di immagini mediche o il rilevamento di frodi, un modello ad alto Recall garantisce che vengano acquisiti il maggior numero possibile di casi veri per un'ulteriore revisione, anche se ciò significa che alcuni non casi vengono erroneamente segnalati.

  • Diagnosi medica: In un sistema basato sull'IA per rilevare il cancro dalle scansioni mediche, un modello ad alto Recall è fondamentale. È di gran lunga preferibile che il sistema segnali un paziente sano per la revisione da parte di un radiologo (un falso positivo) piuttosto che non rilevare un tumore canceroso (un falso negativo), il che potrebbe ritardare un trattamento salvavita. Molte soluzioni di IA in ambito sanitario sono ottimizzate per un'elevata sensibilità.
  • Sicurezza e Sorveglianza: Per un sistema di allarme di sicurezza progettato per rilevare gli intrusi, un alto valore di Recall è fondamentale. Il sistema deve identificare ogni potenziale minaccia, anche se occasionalmente scambia un animale randagio per un intruso. La mancata individuazione di una vera e propria violazione della sicurezza renderebbe il sistema inefficace.

Recall nei modelli YOLO di Ultralytics

Nel contesto della computer vision (CV) e di modelli come Ultralytics YOLO, il Recall è una metrica chiave utilizzata insieme a Precision e mean Average Precision (mAP) per valutare le prestazioni su attività come il rilevamento degli oggetti e la segmentazione delle istanze. Raggiungere un buon equilibrio tra Recall e Precision è spesso essenziale per prestazioni robuste nel mondo reale. Ad esempio, quando si confrontano modelli come YOLOv8 vs YOLO11, il Recall aiuta a capire quanto bene ogni modello identifica tutti gli oggetti target. Gli utenti possono addestrare modelli personalizzati utilizzando framework come PyTorch o TensorFlow e tenere traccia del Recall utilizzando strumenti come Weights & Biases o le funzionalità integrate in Ultralytics HUB. Comprendere il Recall aiuta a ottimizzare i modelli per casi d'uso specifici, potenzialmente coinvolgendo la messa a punto degli iperparametri o esplorando diverse architetture di modelli come YOLOv10 o l'ultimo YOLO11. Risorse come la documentazione di Ultralytics offrono guide complete sull'addestramento e la valutazione.

Recall vs. altre metriche

È importante distinguere il Recall da altre metriche di valutazione comuni.

  • Precisione: Mentre il Recall si concentra sulla ricerca di tutti i campioni positivi, la Precisione misura l'accuratezza delle predizioni positive effettuate. Risponde alla domanda: "Di tutte le istanze che il modello ha predetto come positive, quante erano effettivamente positive?" C'è spesso un compromesso tra Precisione e Recall; aumentare uno può diminuire l'altro. Questo concetto è noto come il trade-off Precisione-Recall.
  • Accuratezza: Misura la percentuale complessiva di previsioni corrette (sia positive che negative). L'accuratezza può essere una metrica fuorviante per i dataset sbilanciati, dove una classe supera di gran lunga l'altra. Ad esempio, in un dataset con il 99% di campioni negativi, un modello che prevede tutto come negativo raggiunge un'accuratezza del 99%, ma ha un Recall pari a zero per la classe positiva.
  • F1-Score: Questa è la media armonica di Precision e Recall. L'F1-Score fornisce un singolo numero che bilancia entrambe le metriche, rendendola una misura utile quando è necessario considerare sia i falsi positivi che i falsi negativi. Viene spesso utilizzato quando c'è una distribuzione di classe non uniforme.
  • Area Under the Curve (AUC): Specificamente per la classificazione binaria, la curva Receiver Operating Characteristic (ROC) traccia il tasso di veri positivi (Recall) rispetto al tasso di falsi positivi. L'AUC fornisce un singolo punteggio che riassume le prestazioni del modello su tutte le soglie di classificazione. L'area sotto la curva Precision-Recall (AUC-PR) è spesso più informativa per attività di classificazione sbilanciate.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti