Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Confidenza

Definisci i punteggi di confidenza dell'AI. Scopri come i modelli valutano la certezza delle previsioni, impostano le soglie di affidabilità e distinguono la confidenza dall'accuratezza.

Nel campo dell'intelligenza artificiale e dell'apprendimento automatico, un punteggio di confidenza è una metrica che quantifica il livello di certezza di un modello rispetto a una previsione specifica. Questo valore varia in genere da 0 a 1 (o dallo 0% al 100%) e rappresenta la probabilità stimata che il risultato dell'algoritmo corrisponda alla verità di base. Ad esempio, in un'attività di rilevamento di oggetti, se un sistema identifica una regione di un'immagine come una "bicicletta" con un'affidabilità di 0,92, ciò suggerisce una probabilità stimata del 92% che la classificazione sia corretta. Questi punteggi derivano dall'ultimo strato di una rete neurale, spesso elaborato attraverso una funzione di attivazione come Softmax per la categorizzazione multi-classe o la funzione Sigmoid per le decisioni binarie.

Il ruolo della fiducia nell'inferenza

I punteggi di confidenza sono una componente fondamentale del flusso di lavoro del motore di inferenza, fungendo da filtro per distinguere le previsioni di alta qualità dal rumore di fondo. Questo processo di filtraggio, noto come soglia, consente agli sviluppatori di regolare la sensibilità di un'applicazione. Stabilendo una soglia minima di confidenza, è possibile gestire il compromesso critico tra precisione e richiamo. Una soglia più bassa può detect oggetti ma aumenta il rischio di falsi positivi, mentre una soglia più alta migliora la precisione ma potrebbe comportare la perdita di istanze sottili.

In architetture avanzate come Ultralytics , i punteggi di confidenza sono essenziali per tecniche di post-elaborazione come la Non-Maximum Suppression (NMS). NMS NMS utilizza questi punteggi per rimuovere i riquadri di delimitazione ridondanti che si sovrappongono in modo significativo, conservando solo il rilevamento con la probabilità più alta. Questo passaggio garantisce che il risultato finale sia pulito e pronto per attività a valle come il conteggio o il tracciamento degli oggetti.

Il seguente Python mostra come filtrare le previsioni in base alla confidenza utilizzando il ultralytics pacchetto:

from ultralytics import YOLO

# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)

# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
    print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")

Applicazioni nel mondo reale

I punteggi di confidenza forniscono un livello di interpretabilità indispensabile in tutti i settori in cui viene applicata la visione artificiale (CV). Aiutano i sistemi automatizzati a determinare quando procedere in modo autonomo e quando attivare avvisi per la revisione umana.

  • Guida autonoma: nel settore dell' intelligenza artificiale applicata all'automotive, i veicoli a guida autonoma si affidano a metriche di affidabilità per garantire la sicurezza dei passeggeri. Se un sistema di percezione rileva un ostacolo con un basso livello di affidabilità, potrebbe incrociare questi dati con quelli dei sensori LiDAR o del radar per verificare la presenza dell'oggetto prima di eseguire una manovra di emergenza. Questa ridondanza aiuta a prevenire le "frenate fantasma" causate da ombre o riflessi.
  • Diagnostica medica: quando si utilizza l' intelligenza artificiale nel settore sanitario, i modelli assistono i professionisti medici segnalando potenziali anomalie nei dati di imaging. Un sistema creato per il rilevamento dei tumori potrebbe evidenziare le regioni con un alto grado di affidabilità per una diagnosi immediata, mentre le previsioni con un grado di affidabilità inferiore vengono registrate per un'analisi secondaria. Questo flusso di lavoro "human-in-the-loop" garantisce che l'intelligenza artificiale potenzi il processo decisionale clinico senza sostituire il giudizio degli esperti.
  • Automazione industriale: nella produzione intelligente, i bracci robotici utilizzano punteggi di affidabilità per interagire con gli oggetti sulle linee di assemblaggio. Un robot dotato di visioneartificiale potrebbe tentare di afferrare un componente solo se l'affidabilità del rilevamento supera il 90%, riducendo così il rischio di danneggiare parti delicate a causa di un disallineamento.

Distinguere la fiducia dai termini correlati

È fondamentale differenziare la confidenza dalle altre metriche statistiche utilizzate nella valutazione del modello.

  • Fiducia vs. Accuratezza: l'accuratezza è una metrica globale che descrive la frequenza con cui un modello è corretto nell'intero set di dati (ad esempio, "Il modello ha un'accuratezza del 92% "). Al contrario, la fiducia è un valore locale, specifico per la previsione (ad esempio, "Il modello è sicuro al 92% che questa immagine specifica contenga un gatto"). Un modello può avere un'accuratezza complessiva elevata, ma comunque produrre una bassa affidabilità nei casi limite.
  • Fiducia vs. Calibrazione della probabilità: un punteggio di fiducia grezzo non sempre corrisponde alla reale probabilità di correttezza. Un modello è "ben calibrato" se le previsioni effettuate con un punteggio di fiducia pari a 0,8 sono corrette circa l'80% delle volte. Tecniche quali il Platt scaling o la regressione isotonica sono spesso impiegate per allineare i punteggi alle probabilità empiriche.
  • Fiducia vs. Precisione: La precisione misura la percentuale di identificazioni positive effettivamente corrette. Sebbene l'aumento della soglia di fiducia generalmente aumenti la precisione, spesso ciò avviene a scapito del richiamo. Gli sviluppatori devono regolare questa soglia in base al fatto che la loro applicazione dia priorità alla riduzione del numero di oggetti mancanti o alla minimizzazione dei falsi allarmi.

Migliorare la fiducia dei modelli

Se un modello produce costantemente un basso livello di affidabilità per oggetti validi, spesso ciò indica una discrepanza tra i dati di addestramento e l'ambiente di implementazione. Le strategie per mitigare questo problema includono l' aumento dei dati, che espande artificialmente il set di dati variando l'illuminazione, la rotazione e il rumore. Inoltre, l'utilizzo della Ultralytics per implementare pipeline di apprendimento attivo consente agli sviluppatori di identificare facilmente i campioni a bassa affidabilità, annotarli e riqualificare il modello. Questo ciclo iterativo è fondamentale per creare agenti AI robusti in grado di operare in modo affidabile in contesti dinamici e reali.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora