Découvrez le rôle des scores de confiance dans l'IA. Apprenez à filtrer les prédictions, à optimiser le compromis précision-rappel et à mettre en œuvre Ultralytics pour plus de précision.
Dans le domaine de l'intelligence artificielle et de l'apprentissage automatique, un score de confiance est une mesure qui quantifie le niveau de certitude d'un modèle concernant une prédiction spécifique. Cette valeur varie généralement de 0 à 1 (ou de 0 % à 100 %) et représente la probabilité estimée que le résultat de l'algorithme corresponde à la vérité terrain. Par exemple, dans une tâche de détection d'objets, si un système identifie une région d'une image comme étant un « vélo » avec un niveau de confiance de 0,92, cela suggère une probabilité estimée à 92 % que la classification soit correcte. Ces scores sont dérivés de la couche finale d'un réseau neuronal, souvent traités par une fonction d'activation telle que Softmax pour la catégorisation multi-classes ou la fonction Sigmoid pour les décisions binaires.
Les scores de confiance sont un élément fondamental du flux de travail du moteur d'inférence, agissant comme un filtre pour distinguer les prédictions de haute qualité du bruit de fond. Ce processus de filtrage, appelé seuillage, permet aux développeurs d'ajuster la sensibilité d'une application. En établissant un seuil de confiance minimum, vous pouvez gérer le compromis critique entre précision et rappel. Un seuil plus bas peut detect d'objets, mais augmente le risque de faux positifs, tandis qu'un seuil plus élevé améliore la précision, mais peut entraîner la perte d'instances subtiles.
Dans les architectures avancées telles Ultralytics , les scores de confiance sont essentiels pour les techniques de post-traitement telles que la suppression non maximale (NMS). NMS utilise ces scores pour supprimer les cadres de sélection redondants qui se chevauchent de manière significative, ne conservant que la détection ayant la probabilité la plus élevée. Cette étape garantit que le résultat final est propre et prêt pour les tâches en aval telles que le comptage ou le suivi d'objets.
Python suivant montre comment filtrer les prédictions par niveau de confiance à l'aide de la fonction
ultralytics l'emballage :
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
Les scores de confiance offrent un niveau d'interprétabilité indispensable dans tous les secteurs où la vision par ordinateur (CV) est appliquée. Ils aident les systèmes automatisés à déterminer quand ils peuvent fonctionner de manière autonome et quand ils doivent déclencher des alertes pour une vérification humaine.
Il est crucial de différencier la confiance des autres mesures statistiques utilisées dans l' évaluation des modèles.
Si un modèle génère systématiquement un faible niveau de confiance pour des objets valides, cela indique souvent un écart entre les données d'entraînement et l'environnement de déploiement. Les stratégies visant à atténuer ce problème comprennent l' augmentation des données, qui élargit artificiellement l' ensemble de données en variant l'éclairage, la rotation et le bruit. De plus, l'utilisation Ultralytics pour mettre en œuvre des pipelines d'apprentissage actif permet aux développeurs d' identifier facilement les échantillons à faible confiance, de les annoter et de réentraîner le modèle. Ce cycle itératif est essentiel pour créer des agents IA robustes capables de fonctionner de manière fiable dans des environnements dynamiques et réels.