Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Confiance

Découvrez le rôle des scores de confiance dans l'IA. Apprenez à filtrer les prédictions, à optimiser le compromis précision-rappel et à mettre en œuvre Ultralytics pour plus de précision.

Dans le domaine de l'intelligence artificielle et de l'apprentissage automatique, un score de confiance est une mesure qui quantifie le niveau de certitude d'un modèle concernant une prédiction spécifique. Cette valeur varie généralement de 0 à 1 (ou de 0 % à 100 %) et représente la probabilité estimée que le résultat de l'algorithme corresponde à la vérité terrain. Par exemple, dans une tâche de détection d'objets, si un système identifie une région d'une image comme étant un « vélo » avec un niveau de confiance de 0,92, cela suggère une probabilité estimée à 92 % que la classification soit correcte. Ces scores sont dérivés de la couche finale d'un réseau neuronal, souvent traités par une fonction d'activation telle que Softmax pour la catégorisation multi-classes ou la fonction Sigmoid pour les décisions binaires.

Le rôle de la confiance dans l'inférence

Les scores de confiance sont un élément fondamental du flux de travail du moteur d'inférence, agissant comme un filtre pour distinguer les prédictions de haute qualité du bruit de fond. Ce processus de filtrage, appelé seuillage, permet aux développeurs d'ajuster la sensibilité d'une application. En établissant un seuil de confiance minimum, vous pouvez gérer le compromis critique entre précision et rappel. Un seuil plus bas peut detect d'objets, mais augmente le risque de faux positifs, tandis qu'un seuil plus élevé améliore la précision, mais peut entraîner la perte d'instances subtiles.

Dans les architectures avancées telles Ultralytics , les scores de confiance sont essentiels pour les techniques de post-traitement telles que la suppression non maximale (NMS). NMS utilise ces scores pour supprimer les cadres de sélection redondants qui se chevauchent de manière significative, ne conservant que la détection ayant la probabilité la plus élevée. Cette étape garantit que le résultat final est propre et prêt pour les tâches en aval telles que le comptage ou le suivi d'objets.

Python suivant montre comment filtrer les prédictions par niveau de confiance à l'aide de la fonction ultralytics l'emballage :

from ultralytics import YOLO

# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)

# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
    print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")

Applications concrètes

Les scores de confiance offrent un niveau d'interprétabilité indispensable dans tous les secteurs où la vision par ordinateur (CV) est appliquée. Ils aident les systèmes automatisés à déterminer quand ils peuvent fonctionner de manière autonome et quand ils doivent déclencher des alertes pour une vérification humaine.

  • Conduite autonome : dans le secteur de l' IA automobile, les véhicules autonomes s'appuient sur des indicateurs de confiance pour garantir la sécurité des passagers. Si un système de perception détecte un obstacle avec un faible niveau de confiance, il peut recouper ces données avec celles des capteurs LiDAR ou du radar afin de vérifier la présence de l'objet avant d'exécuter une manœuvre d'urgence. Cette redondance permet d'éviter les « freinages fantômes » causés par les ombres ou les reflets.
  • Diagnostic médical : lorsqu'on utilise l' IA dans le domaine de la santé, les modèles aident les professionnels de santé en signalant les anomalies potentielles dans les données d'imagerie. Un système conçu pour la détection des tumeurs peut mettre en évidence les zones présentant un haut degré de confiance pour un diagnostic immédiat, tandis que les prédictions moins fiables sont enregistrées pour une analyse secondaire. Ce flux de travail impliquant l'intervention humaine garantit que l'IA améliore la prise de décision clinique sans remplacer le jugement des experts.
  • Automatisation industrielle : dans le domaine de la fabrication intelligente, les bras robotiques utilisent des scores de confiance pour interagir avec les objets sur les chaînes de montage. Un robot équipé d'une vision IA ne tentera de saisir un composant que si le niveau de confiance de la détection dépasse 90 %, réduisant ainsi le risque d' endommager des pièces délicates en raison d'un mauvais alignement.

Distinguer la confiance des termes apparentés

Il est crucial de différencier la confiance des autres mesures statistiques utilisées dans l' évaluation des modèles.

  • Confiance vs précision : la précision est une mesure globale qui décrit la fréquence à laquelle un modèle est correct sur l'ensemble d'un ensemble de données (par exemple, « le modèle est précis à 92 % »). En revanche, la confiance est une valeur locale, spécifique à une prédiction (par exemple, « le modèle est sûr à 92 % que cette image spécifique contient un chat »). Un modèle peut avoir une précision globale élevée, mais néanmoins présenter une faible confiance dans les cas limites.
  • Confiance vs. calibrage de probabilité : un score de confiance brut ne correspond pas toujours à la véritable probabilité d'exactitude. Un modèle est « bien calibré » si les prédictions faites avec une confiance de 0,8 sont correctes environ 80 % du temps. Des techniques telles que la mise à l'échelle de Platt ou la régression isotonique sont souvent utilisées pour aligner les scores sur les probabilités empiriques.
  • Confiance vs précision : La précision mesure la proportion d'identifications positives qui étaient réellement correctes. Si l'augmentation du seuil de confiance améliore généralement la précision, elle se fait souvent au détriment du rappel. Les développeurs doivent ajuster ce seuil en fonction de la priorité donnée par leur application : réduire le nombre d'objets manquants ou minimiser les fausses alertes.

Améliorer la confiance dans les modèles

Si un modèle génère systématiquement un faible niveau de confiance pour des objets valides, cela indique souvent un écart entre les données d'entraînement et l'environnement de déploiement. Les stratégies visant à atténuer ce problème comprennent l' augmentation des données, qui élargit artificiellement l' ensemble de données en variant l'éclairage, la rotation et le bruit. De plus, l'utilisation Ultralytics pour mettre en œuvre des pipelines d'apprentissage actif permet aux développeurs d' identifier facilement les échantillons à faible confiance, de les annoter et de réentraîner le modèle. Ce cycle itératif est essentiel pour créer des agents IA robustes capables de fonctionner de manière fiable dans des environnements dynamiques et réels.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant