Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Tout ce que vous devez savoir sur l'IA explicable (XAI)

Abirami Vina

4 min de lecture

13 décembre 2024

Découvrez comment l'IA explicable (XAI) renforce la confiance en rendant les prédictions de l'IA transparentes et fiables dans les domaines de la santé, de la sécurité, de la conduite autonome, etc.

Avez-vous déjà vu une réponse d'un outil d'intelligence artificielle (IA) comme ChatGPT et vous êtes-vous demandé comment il était arrivé à cette conclusion ? Alors, vous avez rencontré le problème de la "boîte noire" de l'IA. C'est un terme qui fait référence au manque de clarté sur la façon dont les modèles d'IA traitent et analysent les données. Même les ingénieurs et les scientifiques de l'IA qui travaillent régulièrement avec des algorithmes d'IA de pointe peuvent avoir du mal à comprendre pleinement leur fonctionnement interne. En fait, seulement 22 % des professionnels de l'informatique comprennent réellement les capacités des outils d'IA. 

L'incertitude quant à la manière dont les modèles d'IA prennent des décisions peut être risquée, en particulier dans des domaines critiques tels que la vision par ordinateur dans le secteur de la santé et l'IA dans la finance. Cependant, des progrès importants sont réalisés pour relever ces défis et améliorer la transparence.

En particulier, l'IA explicable (XAI) se concentre uniquement sur la résolution de ce problème. En termes simples, il s'agit d'un ensemble de processus et de méthodes qui aident les utilisateurs humains à comprendre et à faire confiance aux résultats ou aux sorties donnés par des algorithmes complexes d'apprentissage automatique

L'IA explicable peut aider les développeurs à s'assurer que les systèmes d'IA fonctionnent comme prévu. Elle peut également aider les entreprises d'IA à respecter les normes réglementaires. Dans cet article, nous allons explorer l'IA explicable et son large éventail de cas d'utilisation. Commençons !

L'importance de l'IA explicable

L'explicabilité est essentielle lorsque l'on travaille avec l'IA. Cela est particulièrement vrai dans le sous-domaine de l'IA, la vision artificielle, qui est largement utilisée dans les applications d'industries telles que la santé. Lors de l'utilisation de modèles de vision dans des secteurs aussi sensibles, il est important que le fonctionnement du modèle soit transparent et interprétable par tous. 

L'interprétabilité des modèles de vision par ordinateur aide les utilisateurs à mieux comprendre comment une prédiction a été faite et la logique qui la sous-tend. La transparence s'y ajoute en rendant le fonctionnement du modèle clair pour tous, en décrivant clairement les limites du modèle et en veillant à ce que les données soient utilisées de manière éthique. Par exemple, la vision par ordinateur peut aider les radiologues à identifier efficacement les complications de santé dans les images radiographiques.

__wf_reserved_inherit
Figure 1. Radiographies pulmonaires analysées à l'aide de l'IA de vision montrant les classifications de la tuberculose saine, malade, active et latente.

Cependant, un système de vision qui est juste précis ne suffit pas. Le système doit également être capable d'expliquer ses décisions. Disons que le système pourrait montrer quelles parties de l'image ont mené à ses conclusions - alors, toute sortie serait plus claire. Un tel niveau de transparence aiderait les professionnels de la santé à vérifier leurs conclusions et à s'assurer que les soins aux patients répondent aux normes médicales. 

Une autre raison pour laquelle l'explicabilité est essentielle est qu'elle rend les entreprises d'IA responsables et renforce la confiance des utilisateurs. Une IA digne de confiance amène les utilisateurs à avoir l'assurance que les innovations en matière d'IA fonctionnent de manière fiable, prennent des décisions équitables et gèrent les données de manière responsable

Principales techniques d'IA explicable en vision par ordinateur

Maintenant que nous avons discuté de l'importance de l'explicabilité dans la vision par ordinateur, examinons les principales techniques XAI utilisées dans la vision IA.

Cartes de saillance

Les réseaux neuronaux sont des modèles inspirés du cerveau humain, conçus pour reconnaître des schémas et prendre des décisions en traitant des données à travers des couches interconnectées de nœuds (neurones). Ils peuvent être utilisés pour résoudre des problèmes complexes de vision par ordinateur avec une grande précision. Malgré cette précision, ils restent des boîtes noires par conception. 

Les cartes de saillance sont une technique XAI qui peut être utilisée pour aider à comprendre ce que les réseaux neuronaux voient lorsqu'ils analysent des images. Elles peuvent également être utilisées pour dépanner les modèles s'ils ne fonctionnent pas comme prévu. 

Les cartes de saillance fonctionnent en se concentrant sur les parties d'une image (pixels) qui définissent les prédictions d'un modèle. Ce processus est très similaire à la rétropropagation, où le modèle remonte des prédictions à l'entrée. Mais au lieu de mettre à jour les poids du modèle en fonction des erreurs, nous examinons simplement l'importance de chaque pixel pour la prédiction. Les cartes de saillance sont très utiles pour les tâches de vision par ordinateur comme la classification d'images.

Par exemple, si un modèle de classification d'images prédit qu'une image représente un chien, nous pouvons examiner sa carte de saillance pour comprendre pourquoi le modèle pense qu'il s'agit d'un chien. Cela nous aide à identifier les pixels qui affectent le plus la sortie. La carte de saillance mettrait en évidence tous les pixels qui ont contribué à la prédiction finale de l'image comme étant un chien.

__wf_reserved_inherit
Fig. 2. Une vue côte à côte des images d'entrée et de leurs cartes de saillance.

Cartographie d'Activation de Classe (CAM)

La cartographie d'activation de classe est une autre technique XAI utilisée pour comprendre sur quelles parties d'une image un réseau neuronal se concentre lors de la réalisation de prédictions de classification d'images. Elle fonctionne de manière similaire aux cartes de saillance, mais se concentre sur l'identification des caractéristiques importantes de l'image plutôt que sur des pixels spécifiques. Les caractéristiques sont des motifs ou des détails, comme des formes ou des textures, que le modèle détecte dans l'image.

Des méthodes comme Gradient Weighted Class Activation Mapping (Grad-CAM) et Grad-CAM++ s'appuient sur la même idée, avec quelques améliorations.

Voici comment fonctionne CAM :

  • Avant que le réseau neuronal ne prenne sa décision finale, il utilise une étape appelée "global average pooling" (GAP) pour simplifier l'information. Le GAP combine tous les pixels d'un motif détecté en une seule valeur moyenne, créant ainsi un résumé pour chaque carte de caractéristiques (une représentation visuelle des motifs détectés).
  • Chaque carte de caractéristiques reçoit ensuite un poids qui indique son importance pour la prédiction d'une certaine classe (comme "oiseau" ou "chat").
  • Cependant, une limite de CAM est que vous devrez peut-être réentraîner le modèle pour calculer ces poids, ce qui peut prendre du temps.

Grad-CAM améliore cela en utilisant des gradients, qui sont comme des signaux montrant l'influence de chaque carte de caractéristiques sur la prédiction finale. Cette méthode évite d'avoir recours au GAP et permet de voir plus facilement sur quoi le modèle se concentre sans réentraînement. Grad-CAM++ va encore plus loin en se concentrant uniquement sur les influences positives, ce qui rend les résultats encore plus clairs.

__wf_reserved_inherit
Fig 3. Comparaison de CAM, Grad-CAM et Grad-CAM++.

Explications contrefactuelles

Les explications contrefactuelles sont un élément important de l'IA explicable. Une explication contrefactuelle consiste à décrire une situation ou un résultat en considérant des scénarios ou des événements alternatifs qui ne se sont pas produits mais auraient pu se produire. Elle peut démontrer comment des changements dans des variables d'entrée spécifiques conduisent à des résultats différents, tels que : « Si X ne s'était pas produit, Y ne se serait pas produit. »

En ce qui concerne l'IA et la vision par ordinateur, une explication contrefactuelle identifie le plus petit changement requis dans une entrée (telle qu'une image ou des données) pour amener un modèle d'IA à produire un résultat différent et spécifique. Par exemple, modifier la couleur d'un objet dans une image pourrait changer la prédiction d'un modèle de classification d'images de « chat » à « chien ».

Un autre bon exemple serait de modifier l'angle ou l'éclairage dans un système de reconnaissance faciale. Cela pourrait amener le modèle à identifier une personne différente, montrant ainsi comment de petites modifications de l'entrée peuvent influencer les prédictions du modèle.

La façon la plus simple de créer ces explications est par essais et erreurs : vous pouvez modifier aléatoirement des parties de l'entrée (comme les caractéristiques de l'image ou des données) jusqu'à ce que le modèle d'IA vous donne le résultat souhaité. D'autres méthodes incluent des approches indépendantes du modèle, qui utilisent des techniques d'optimisation et de recherche pour trouver les changements, et des approches spécifiques au modèle, qui s'appuient sur des paramètres ou des calculs internes pour identifier les changements nécessaires.

Applications de l'IA explicable dans la vision par ordinateur

Maintenant que nous avons exploré ce qu'est l'XAI et ses techniques clés, nous pouvons voir comment elle est utilisée dans la vie réelle. L'XAI a diverses applications dans de nombreux domaines. Examinons quelques cas d'utilisation qui mettent en évidence son potentiel :

  • Systèmes de sécurité: L'IA explicable (XAI) peut être utilisée pour améliorer les systèmes de sécurité en détectant les images modifiées dans les documents d'identification tels que les passeports et les permis de conduire. Cela garantit l'authenticité des images, renforce les processus de vérification d'identité et empêche les activités frauduleuses dans les applications sensibles.
__wf_reserved_inherit
Fig. 4. Comment XAI fonctionne pour détecter les images modifiées.

  • Conduite autonome: Comprendre les capacités et les limites du système de Vision IA embarqué d'une voiture autonome peut être un élément essentiel pour tester la voiture avant qu'elle ne soit déployée sur des routes réelles. L'IA explicable (XAI) peut aider les constructeurs automobiles à identifier et à résoudre les problèmes plus clairement.
  • Systèmes juridiques: Les systèmes d'analyse de documents basés sur la vision sont de plus en plus utilisés dans la prise de décision judiciaire. XAI favorise des résultats équitables et permet de contrôler les jugements automatisés. Il aide également les professionnels du droit à comprendre comment un modèle d'IA prend ses décisions.
  • Surveillance de la faune: Des pièges photographiques sont souvent utilisés pour surveiller la faune et recueillir des données sur les espèces animales. L’IA explicable peut être utilisée pour expliquer comment l’IA classe ces espèces dans les images. Ce faisant, les efforts de conservation peuvent être plus fiables et précis.

Principaux points à retenir sur l'IA explicable

L'IA explicable facilite la compréhension du fonctionnement des systèmes d'IA et des raisons pour lesquelles ils prennent certaines décisions. La transparence des modèles d'IA renforce la confiance et la responsabilité. La connaissance, c'est le pouvoir, et elle contribue à ce que les innovations en matière d'IA soient utilisées de manière plus responsable. Dans des domaines critiques tels que la santé, la sécurité, la conduite autonome et les systèmes juridiques, la XAI peut être utilisée pour aider les développeurs et les utilisateurs à comprendre les prédictions de l'IA, à identifier les erreurs et à garantir une utilisation équitable et éthique. En rendant l'IA plus transparente, la XAI comble le fossé entre la technologie et la confiance humaine, la rendant plus sûre et plus fiable pour les applications du monde réel.

Pour en savoir plus, consultez notre dépôt GitHub et échangez avec notre communauté. Explorez les applications de l'IA dans les voitures autonomes et l'agriculture sur nos pages de solutions. 🚀

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers