Definisci i punteggi di confidenza dell'AI. Scopri come i modelli valutano la certezza delle previsioni, impostano le soglie di affidabilità e distinguono la confidenza dall'accuratezza.
Nel campo dell'intelligenza artificiale e dell'apprendimento automatico, un punteggio di confidenza è una metrica che quantifica il livello di certezza di un modello rispetto a una previsione specifica. Questo valore varia in genere da 0 a 1 (o dallo 0% al 100%) e rappresenta la probabilità stimata che il risultato dell'algoritmo corrisponda alla verità di base. Ad esempio, in un'attività di rilevamento di oggetti, se un sistema identifica una regione di un'immagine come una "bicicletta" con un'affidabilità di 0,92, ciò suggerisce una probabilità stimata del 92% che la classificazione sia corretta. Questi punteggi derivano dall'ultimo strato di una rete neurale, spesso elaborato attraverso una funzione di attivazione come Softmax per la categorizzazione multi-classe o la funzione Sigmoid per le decisioni binarie.
I punteggi di confidenza sono una componente fondamentale del flusso di lavoro del motore di inferenza, fungendo da filtro per distinguere le previsioni di alta qualità dal rumore di fondo. Questo processo di filtraggio, noto come soglia, consente agli sviluppatori di regolare la sensibilità di un'applicazione. Stabilendo una soglia minima di confidenza, è possibile gestire il compromesso critico tra precisione e richiamo. Una soglia più bassa può detect oggetti ma aumenta il rischio di falsi positivi, mentre una soglia più alta migliora la precisione ma potrebbe comportare la perdita di istanze sottili.
In architetture avanzate come Ultralytics , i punteggi di confidenza sono essenziali per tecniche di post-elaborazione come la Non-Maximum Suppression (NMS). NMS NMS utilizza questi punteggi per rimuovere i riquadri di delimitazione ridondanti che si sovrappongono in modo significativo, conservando solo il rilevamento con la probabilità più alta. Questo passaggio garantisce che il risultato finale sia pulito e pronto per attività a valle come il conteggio o il tracciamento degli oggetti.
Il seguente Python mostra come filtrare le previsioni in base alla confidenza utilizzando il
ultralytics pacchetto:
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
I punteggi di confidenza forniscono un livello di interpretabilità indispensabile in tutti i settori in cui viene applicata la visione artificiale (CV). Aiutano i sistemi automatizzati a determinare quando procedere in modo autonomo e quando attivare avvisi per la revisione umana.
È fondamentale differenziare la confidenza dalle altre metriche statistiche utilizzate nella valutazione del modello.
Se un modello produce costantemente un basso livello di affidabilità per oggetti validi, spesso ciò indica una discrepanza tra i dati di addestramento e l'ambiente di implementazione. Le strategie per mitigare questo problema includono l' aumento dei dati, che espande artificialmente il set di dati variando l'illuminazione, la rotazione e il rumore. Inoltre, l'utilizzo della Ultralytics per implementare pipeline di apprendimento attivo consente agli sviluppatori di identificare facilmente i campioni a bassa affidabilità, annotarli e riqualificare il modello. Questo ciclo iterativo è fondamentale per creare agenti AI robusti in grado di operare in modo affidabile in contesti dinamici e reali.