Tout ce qu'il faut savoir sur l'IA explicable (XAI)

Abirami Vina

4 min lire

13 décembre 2024

Découvrez comment l'IA explicable (XAI) crée la confiance en rendant les prédictions de l'IA transparentes et fiables dans les domaines de la santé, de la sécurité, de la conduite autonome, etc.

Avez-vous déjà vu une réponse d'un outil d'intelligence artificielle (IA) comme ChatGPT et vous êtes-vous demandé comment il en était arrivé à cette conclusion ? Vous avez alors rencontré le problème de la "boîte noire" de l'IA. Ce terme fait référence au manque de clarté sur la manière dont les modèles d'IA traitent et analysent les données. Même les ingénieurs et les scientifiques qui travaillent régulièrement avec des algorithmes d'IA de pointe ont du mal à en comprendre tous les rouages. En fait, seuls 22 % des professionnels de l'informatique comprennent vraiment les capacités des outils d'IA. 

L'incertitude qui entoure la manière dont les modèles d'IA prennent des décisions peut être risquée, en particulier dans des domaines critiques tels que la vision par ordinateur dans les soins de santé et l'IA dans la finance. Toutefois, des progrès significatifs sont réalisés pour relever ces défis et améliorer la transparence.

En particulier, l'IA explicable (XAI) se concentre uniquement sur la résolution de ce problème. En termes simples, il s'agit d'un ensemble de processus et de méthodes qui aident les utilisateurs humains à comprendre et à faire confiance aux résultats obtenus par des algorithmes complexes d'apprentissage automatique

Le XAI peut aider les développeurs à s'assurer que les systèmes d'IA fonctionnent comme prévu. Elle peut également aider les entreprises d'IA à respecter les normes réglementaires. Dans cet article, nous allons explorer l'IA explicable et son large éventail de cas d'utilisation. C'est parti !

L'importance de l'IA explicable

L'explicabilité est essentielle lorsque l'on travaille avec l'IA. C'est particulièrement vrai lorsqu'il s'agit d'un sous-domaine de l'IA, la vision par ordinateur, qui est largement utilisée dans des applications d'industries telles que les soins de santé. Lorsqu'on utilise des modèles de vision dans des secteurs aussi sensibles, il est important que le fonctionnement du modèle soit transparent et interprétable par tous. 

L'interprétabilité des modèles de vision par ordinateur permet aux utilisateurs de mieux comprendre comment une prédiction a été faite et la logique qui la sous-tend. La transparence ajoute à cela en rendant le fonctionnement du modèle clair pour tout le monde, en exposant clairement les limites du modèle et en garantissant que les données sont utilisées de manière éthique. Par exemple, la vision par ordinateur peut aider les radiologues à identifier efficacement les complications de santé dans les images radiographiques.

__wf_reserved_inherit
Fig. 1. Radiographies du thorax analysées à l'aide de Vision AI, montrant les classifications de la tuberculose saine, malade, active et latente.

Cependant, un système de vision simplement précis ne suffit pas. Il doit également être en mesure d'expliquer ses décisions. Imaginons que le système puisse indiquer les parties de l'image qui l'ont amené à ses conclusions : les résultats seraient alors plus clairs. Un tel niveau de transparence aiderait les professionnels de la santé à revérifier leurs résultats et à s'assurer que les soins prodigués aux patients répondent aux normes médicales. 

Une autre raison pour laquelle l'explicabilité est essentielle est qu'elle responsabilise les entreprises d'IA et renforce la confiance des utilisateurs. Une IA digne de confiance permet aux utilisateurs d'être convaincus que les innovations en matière d'IA fonctionnent de manière fiable, prennent des décisions justes et traitent les données de manière responsable. 

Principales techniques d'IA explicables dans le domaine de la vision par ordinateur

Maintenant que nous avons discuté de l'importance de l'explicabilité dans le domaine de la vision artificielle, examinons les principales techniques d'IAO utilisées dans l'IA de la vision.

Cartes de saillance

Les réseaux neuronaux sont des modèles inspirés du cerveau humain, conçus pour reconnaître des modèles et prendre des décisions en traitant les données par le biais de couches interconnectées de nœuds (neurones). Ils peuvent être utilisés pour résoudre des problèmes complexes de vision par ordinateur avec une grande précision. Malgré cette précision, ils restent des boîtes noires de par leur conception. 

Les cartes de saillance sont une technique XAI qui peut être utilisée pour donner un sens à ce que les réseaux neuronaux voient lorsqu'ils analysent des images. Elles peuvent également être utilisées pour dépanner les modèles lorsqu'ils ne fonctionnent pas comme prévu. 

Les cartes de saillance fonctionnent en se concentrant sur les parties d'une image (pixels) qui définissent les prédictions d'un modèle. Ce processus est très similaire à la rétropropagation, où le modèle remonte des prédictions à l'entrée. Mais au lieu de mettre à jour les poids du modèle en fonction des erreurs, nous examinons simplement l'importance de chaque pixel pour la prédiction. Les cartes de saillance sont très utiles pour les tâches de vision artificielle telles que la classification d'images.

Par exemple, si un modèle de classification d'images prédit qu'une image est celle d'un chien, nous pouvons examiner sa carte de saillance pour comprendre pourquoi le modèle pense qu'il s'agit d'un chien. Cela nous aide à identifier les pixels qui affectent le plus le résultat. La carte de saillance met en évidence tous les pixels qui ont contribué à la prédiction finale de l'image comme étant un chien.

__wf_reserved_inherit
Fig. 2. Vue côte à côte des images d'entrée et de leurs cartes de saillance.

Cartographie de l'activation des classes (CAM)

La cartographie d'activation des classes est une autre technique XAI utilisée pour comprendre sur quelles parties d'une image un réseau neuronal se concentre lorsqu'il fait des prédictions de classification d'images. Son fonctionnement est similaire à celui des cartes de saillance, mais il se concentre sur l'identification des caractéristiques importantes de l'image plutôt que sur des pixels spécifiques. Les caractéristiques sont des motifs ou des détails, tels que des formes ou des textures, que le modèle détecte dans l'image.

Des méthodes telles que la cartographie d'activation de classe pondérée par le gradient (Grad-CAM) et Grad-CAM++ reposent sur la même idée, avec quelques améliorations.

Voici comment fonctionne le CAM :

  • Avant que le réseau neuronal ne prenne sa décision finale, il utilise une étape appelée mise en commun de la moyenne globale (GAP) pour simplifier les informations. Le GAP combine tous les pixels d'un motif détecté en une seule valeur moyenne, créant ainsi un résumé pour chaque carte de caractéristiques (une représentation visuelle des motifs détectés).
  • Chaque carte de caractéristiques se voit ensuite attribuer un poids qui indique son importance pour la prédiction d'une certaine classe (comme "oiseau" ou "chat").
  • Toutefois, l'une des limites de la FAO est qu'il peut être nécessaire de réapprendre au modèle à calculer ces poids, ce qui peut prendre beaucoup de temps.

Grad-CAM améliore cette méthode en utilisant des gradients, qui sont comme des signaux montrant à quel point chaque carte de caractéristiques influence la prédiction finale. Cette méthode évite d'avoir recours au GAP et permet de voir plus facilement ce sur quoi le modèle se concentre sans avoir à le réentraîner. Grad-CAM++ va encore plus loin en se concentrant uniquement sur les influences positives, ce qui rend les résultats encore plus clairs.

__wf_reserved_inherit
Fig. 3. Comparaison entre CAM, Grad-CAM et Grad-CAM++.

Explications contrefactuelles

Les explications contrefactuelles sont un élément important de l'IA explicable. Une explication contrefactuelle consiste à décrire une situation ou un résultat en envisageant d'autres scénarios ou événements qui ne se sont pas produits mais qui auraient pu se produire. Elle peut démontrer comment des changements dans des variables d'entrée spécifiques conduisent à des résultats différents, comme par exemple : "Si X ne s'était pas produit, il n'y aurait pas eu de problème : "Si X ne s'était pas produit, Y ne se serait pas produit".

Dans le domaine de l'IA et de la vision par ordinateur, une explication contrefactuelle identifie le plus petit changement nécessaire dans une entrée (telle qu'une image ou des données) pour qu'un modèle d'IA produise un résultat différent et spécifique. Par exemple, la modification de la couleur d'un objet dans une image pourrait faire passer la prédiction d'un modèle de classification d'images de "chat" à "chien".

Un autre bon exemple serait de changer l'angle ou l'éclairage d'un système de reconnaissance faciale. Cela pourrait amener le modèle à identifier une personne différente, montrant comment de petits changements dans les données peuvent influencer les prédictions du modèle.

La manière la plus simple de créer ces explications est l'essai et l'erreur : vous pouvez modifier au hasard des parties de l'entrée (comme des caractéristiques de l'image ou des données) jusqu'à ce que le modèle d'IA vous donne le résultat souhaité. D'autres méthodes incluent les approches agnostiques, qui utilisent des techniques d'optimisation et de recherche pour trouver les changements, et les approches spécifiques au modèle, qui s'appuient sur des paramètres ou des calculs internes pour identifier les changements nécessaires.

Applications de l'IA explicable dans le domaine de la vision par ordinateur

Maintenant que nous avons exploré ce qu'est l'IAO et ses principales techniques, nous allons voir comment elle est utilisée dans la vie réelle. L'IAO a des applications diverses dans de nombreux domaines. Nous allons nous pencher sur quelques cas d'utilisation qui mettent en évidence son potentiel :

  • Systèmes de sécurité: L'IAO peut être utilisée pour améliorer les systèmes de sécurité en détectant les images transformées dans les documents d'identification tels que les passeports et les permis de conduire. Cela permet de garantir l'authenticité des images, de renforcer les processus de vérification de l'identité et de prévenir les activités frauduleuses dans les applications sensibles.
__wf_reserved_inherit
Fig. 4. Comment l'XAI fonctionne pour détecter les images mordues.

  • Conduite autonome: Comprendre les capacités et les limites du système Vision AI embarqué d'une voiture autonome peut s'avérer essentiel pour tester la voiture avant de la déployer sur les routes du monde réel. L'IAO peut aider les constructeurs automobiles à identifier et à résoudre les problèmes plus clairement.
  • Systèmes juridiques: Les systèmes d'analyse de documents basés sur la vision sont de plus en plus utilisés dans la prise de décision judiciaire. L'IAO favorise des résultats équitables et permet d'examiner minutieusement les jugements automatisés. Il aide également les professionnels du droit à comprendre comment un modèle d'IA parvient à ses décisions.
  • Surveillance de la faune: Les pièges photographiques sont souvent utilisés pour surveiller la faune et recueillir des données sur les espèces animales. Le XAI peut être utilisé pour expliquer comment l'IA classifie ces espèces dans les images. Ce faisant, les efforts de conservation peuvent être plus fiables et plus précis.

Principaux enseignements sur l'IA explicable

L'IA explicable facilite la compréhension du fonctionnement des systèmes d'IA et des raisons pour lesquelles ils prennent certaines décisions. La transparence des modèles d'IA renforce la confiance et la responsabilité. La connaissance est un pouvoir et permet d'utiliser les innovations de l'IA de manière plus responsable. Dans des domaines critiques tels que les soins de santé, la sécurité, la conduite autonome et les systèmes juridiques, le XAI peut être utilisé pour aider les développeurs et les utilisateurs à comprendre les prédictions de l'IA, à identifier les erreurs et à garantir une utilisation juste et éthique. En rendant l'IA plus transparente, la XAI comble le fossé entre la technologie et la confiance humaine, la rendant plus sûre et plus fiable pour les applications du monde réel.

Pour en savoir plus, visitez notre dépôt GitHub et participez à la vie de notre communauté. Explorez les applications de l'IA dans les voitures auto-conduites et l'agriculture sur nos pages de solutions. 🚀

Construisons ensemble le futur
de l'IA !

Commencez votre voyage avec l'avenir de l'apprentissage automatique

Commencer gratuitement
Lien copié dans le presse-papiers