Definisci i punteggi di fiducia dell'intelligenza artificiale. Scopri come i modelli valutano la certezza delle previsioni, stabiliscono le soglie di affidabilità e distinguono la fiducia dall'accuratezza.
La confidenza, nel contesto dell'Intelligenza Artificiale (AI) e dell'Apprendimento Automatico (ML), rappresenta un punteggio assegnato da un modello alla sua previsione, che indica quanto il modello sia sicuro di quello specifico risultato. Per compiti come il rilevamento di oggetti o la classificazione di immagini, ogni oggetto rilevato o etichetta di classe assegnata è accompagnato da un punteggio di fiducia, che in genere va da 0 a 1 (o da 0% a 100%). Questo punteggio aiuta gli utenti a valutare l'affidabilità delle singole previsioni fatte da modelli come Ultralytics YOLO. Un punteggio più alto indica che il modello è più sicuro delle sue previsioni in base ai modelli appresi durante l'addestramento. La comprensione della fiducia è fondamentale per interpretare i risultati dei modelli e prendere decisioni informate basate sulle previsioni dell'IA, soprattutto in applicazioni critiche per la sicurezza come l'IA nelle soluzioni automobilistiche.
I punteggi di fiducia sono solitamente derivati dallo strato di uscita di una rete neurale (NN). Per i compiti di classificazione, ciò comporta spesso l'applicazione di una funzione di attivazione come Softmax o Sigmoid alle uscite grezze (logits) per produrre valori simili alla probabilità per ogni classe. Nei modelli di rilevamento degli oggetti come YOLO, il punteggio di confidenza potrebbe combinare la probabilità che un oggetto sia presente in un rettangolo di selezione proposto (spesso chiamato "punteggio di oggettività") e la probabilità che quell'oggetto appartenga a una classe specifica, a condizione che sia presente. Si tratta di un risultato chiave utilizzato durante il processo di inferenza per valutare la validità dei rilevamenti. Questo punteggio viene calcolato in base ai pesi del modello appresi da set di dati come COCO.
In pratica, non tutte le previsioni di un modello sono ugualmente utili o affidabili. Le previsioni con punteggi di confidenza molto bassi rappresentano spesso rumore di fondo o classificazioni incerte. Per filtrare queste previsioni, in genere si applica una "soglia di confidenza". Si tratta di un valore definito dall'utente (ad esempio, 0,5 o 50%); solo le previsioni con un punteggio di confidenza superiore a questa soglia sono considerate risultati validi. La definizione di una soglia appropriata è fondamentale e spesso dipende dall'applicazione specifica:
La soglia di confidenza spesso lavora in combinazione con tecniche come la soppressione non massima (NMS) per affinare l'insieme finale dei rilevamenti eliminando i riquadri di delimitazione che si sovrappongono per lo stesso oggetto. Puoi configurare facilmente questa soglia quando utilizzi i modelli Ultralytics tramite l'interfaccia a riga di comando (CLI) o l'APIPython . La ricerca della soglia ottimale può comportare la regolazione degli iperparametri.
I punteggi di fiducia sono fondamentali per impiegare i modelli di IA in modo responsabile ed efficace:
È importante non confondere il punteggio di fiducia di una singola previsione con le metriche di valutazione complessiva del modello. Pur essendo correlate, misurano aspetti diversi delle prestazioni:
In sintesi, la fiducia è un risultato prezioso per valutare la certezza delle singole previsioni dell'IA, consentendo di migliorare il filtraggio, la prioritizzazione e il processo decisionale nelle applicazioni del mondo reale. È complementare, ma distinta, dalle metriche che valutano le prestazioni complessive di un modello, come quelle rilevate in Ultralytics HUB.