Glossaire

Biais dans l'IA

Découvrez comment identifier, atténuer et prévenir les préjugés dans les systèmes d'IA grâce à des stratégies, des outils et des exemples concrets de développement éthique de l'IA.

Les biais dans l'IA font référence à des erreurs systématiques ou à des préjugés dans les résultats d'un système d'intelligence artificielle (IA). Ces préjugés peuvent conduire à des résultats injustes, inéquitables ou discriminatoires, souvent au détriment de groupes ou de populations spécifiques. Les systèmes d'IA étant de plus en plus intégrés dans des secteurs critiques tels que les soins de santé et la finance, la compréhension et l'atténuation des préjugés sont devenues un enjeu central du développement responsable de l'IA. Il ne s'agit pas d'une erreur aléatoire occasionnelle, mais d'un schéma répétitif de résultats faussés qui reflète des défauts sous-jacents dans les données ou l'algorithme.

Sources des biais de l'Ai

Les biais liés à l'IA peuvent provenir de plusieurs sources tout au long du cycle de développement du modèle. Les sources les plus courantes sont les suivantes

  • Biais de l'ensemble des données: il s'agit de la source la plus répandue de biais d'IA. Elle se produit lorsque les données d'apprentissage ne sont pas représentatives du monde réel ou de la population cible. Par exemple, un ensemble de données pour un outil d'embauche formé principalement sur des données historiques d'un secteur à dominante masculine peut apprendre à favoriser les candidats masculins. Cela peut se manifester par un biais d'échantillonnage (données non collectées de manière aléatoire), un biais de sélection (données non représentatives de l'environnement) ou un biais de mesure ( étiquetage incohérent des données). La création d'ensembles de données équilibrés et diversifiés est une première étape cruciale.
  • Biais algorithmique: ce biais provient de l'algorithme d'IA lui-même. Certains algorithmes peuvent intrinsèquement amplifier les petits biais présents dans les données, ou leur conception peut donner la priorité à certaines caractéristiques par rapport à d'autres d'une manière qui crée des résultats injustes. Le choix d'une fonction de perte, par exemple, peut avoir un impact sur la manière dont un modèle pénalise les erreurs pour différents sous-groupes.
  • Biais humains : les développeurs, les annotateurs de données et les utilisateurs de systèmes d'IA peuvent involontairement introduire leurs propres biais cognitifs dans le modèle d'IA. Ces préjugés personnels et sociétaux peuvent influencer la manière dont les problèmes sont formulés, la manière dont les données sont collectées et annotées, et la manière dont les résultats du modèle sont interprétés.

Exemples concrets

  1. Technologie de reconnaissance faciale : De nombreux systèmes commerciaux de reconnaissance faciale ont toujours affiché des taux d'erreur plus élevés lorsqu'il s'agissait d'identifier des personnes appartenant à des groupes démographiques sous-représentés, en particulier les femmes et les personnes de couleur. Des recherches menées par des institutions telles que le NIST ont mis en évidence ces disparités, qui découlent souvent d'ensembles de données d'apprentissage comportant essentiellement des visages d'hommes blancs.
  2. Outils d'embauche automatisés : Un exemple bien connu est celui d'un outil de recrutement expérimental mis au point par Amazon, qui s'est avéré pénaliser les CV contenant le mot "féminin" et déclasser les diplômées de deux établissements d'enseignement supérieur exclusivement féminins. Le modèle a appris ces préjugés à partir des données historiques d'embauche soumises sur une période de 10 ans, qui reflétaient la domination masculine dans l'industrie technologique. Amazon a finalement abandonné le projet.

Biais dans Ai Vs. Termes apparentés

Il est important de distinguer les biais de l'IA des concepts connexes :

  • Biais algorithmique vs biais d'IA : Le biais algorithmique est un type spécifique de biais d'IA qui provient de l'architecture du modèle ou de la formulation mathématique. Le biais d'IA est un terme générique plus large qui inclut également les biais provenant des données et de l'intervention humaine.
  • Biais de l'ensemble des données et biais de l'IA : le biais de l'ensemble des données est l'une des principales causes de biais de l'IA. Un algorithme parfaitement équitable dans sa conception peut néanmoins produire des résultats biaisés s'il est entraîné sur des données déséquilibrées ou entachées de préjugés.
  • Équité dans l'IA vs. biais dans l'IA : L'équité dans l'IA est le domaine consacré à la lutte contre les biais dans l'IA. Alors que la partialité est le problème, l'équité implique les principes, les mesures et les techniques utilisés pour définir, mesurer et promouvoir des résultats équitables.

Lutter contre la partialité de l'Ai

L'atténuation des biais de l'IA est un processus continu qui nécessite une approche à multiples facettes tout au long du cycle de développement de l'IA :

Des plateformes comme Ultralytics HUB fournissent des outils qui soutiennent le développement de systèmes d'IA plus équitables en permettant une gestion minutieuse des ensembles de données, en facilitant l'entraînement personnalisé des modèles et en permettant le suivi des performances du modèle Ultralytics YOLO. La sensibilisation et l'intégration des principes d'équité, souvent discutés dans des forums tels que la conférence FAccT de l'ACM, sont essentielles pour créer une technologie qui profite équitablement à la société.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers