Glossaire

Biais dans l'IA

Découvre comment identifier, atténuer et prévenir les préjugés dans les systèmes d'IA grâce à des stratégies, des outils et des exemples concrets pour un développement éthique de l'IA.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Les biais dans l'intelligence artificielle (IA) font référence à des erreurs systématiques et répétables au sein d'un système d'IA qui entraînent des résultats injustes, biaisés ou discriminatoires, favorisant souvent un groupe par rapport à d'autres sur la base de caractéristiques arbitraires. Ce biais ne provient pas du modèle d'IA lui-même qui agit de manière malveillante, mais émerge plutôt lorsque le modèle apprend et reproduit les valeurs implicites, les inégalités historiques ou les déséquilibres statistiques présents dans les données d'entraînement, la conception des algorithmes ou les choix faits par les humains impliqués dans son développement et son déploiement. La prise en compte des biais de l'IA est fondamentale pour le développement éthique de l'IA, car elle a un impact critique sur les performances des modèles, leur fiabilité et la confiance du public, en particulier dans des domaines sensibles tels que la vision par ordinateur (VPI).

Sources de partialité de l'Ai

Les biais de l'IA ne sont pas une propriété inhérente à l'IA, mais découlent des processus humains et des données utilisées pour construire ces systèmes. Il est essentiel d'en comprendre les origines pour les atténuer :

  • Biais de l'ensemble des données: il s'agit de la source la plus courante, qui survient lorsque les données utilisées pour la formation ne sont pas représentatives de la population du monde réel ou du contexte dans lequel le modèle sera déployé. Cela inclut les biais historiques (reflétant les préjugés sociétaux du passé), les biais de mesure (collecte de données incohérente entre les groupes), les biais de représentation (sous-échantillonnage de certains groupes) et les problèmes d'étiquetage des données lorsque les annotations reflètent des points de vue subjectifs. Comprendre l'impact des biais des ensembles de données est crucial pour l'IA visionnaire.
  • Biais algorithmique: le biais peut être introduit par l'algorithme lui-même, par exemple lorsqu'un algorithme optimise pour une mesure qui désavantage par inadvertance un groupe spécifique, ou lorsque la conception du modèle émet des hypothèses qui ne sont pas valables pour tout le monde. Par exemple, certains choix d'optimisation peuvent donner la priorité à la précision globale au détriment de l'équité pour les sous-groupes minoritaires.
  • Biais humains : les propres préjugés conscients ou inconscients des développeurs et des utilisateurs peuvent influencer la conception des modèles, la sélection des données, l'interprétation des résultats et les décisions de déploiement, intégrant ainsi l'injustice dans le cycle de vie de l'IA.

Exemples concrets

Les biais dans l'IA peuvent se manifester dans diverses applications, avec parfois de graves conséquences :

  • Systèmes dereconnaissance faciale: De nombreuses études, y compris des tests approfondis menés par le NIST, ont montré que certaines technologies de reconnaissance faciale affichent des taux de précision nettement inférieurs pour les personnes appartenant à certains groupes démographiques (par exemple, les femmes à la peau plus foncée) par rapport à d'autres (par exemple, les hommes à la peau plus claire). Cette disparité provient souvent d'ensembles de données d'entraînement non représentatifs et peut conduire à une identification erronée et à un traitement inégal dans des applications allant du déverrouillage de téléphones à l'application de la loi. Des organisations comme l'Algorithmic Justice League travaillent activement à mettre en évidence et à combattre ces préjugés.
  • L'IA dans les soins de santé: Les modèles d'IA utilisés pour des tâches telles que l'analyse d'images médicales ou la prédiction des risques pour les patients peuvent hériter des biais des données de santé historiques. Si un outil de diagnostic est principalement formé sur les données d'un groupe de population, il risque d'être moins performant pour les groupes sous-représentés, ce qui pourrait entraîner des diagnostics tardifs ou des recommandations de traitement inappropriées. La recherche met en évidence les risques de biais dans les algorithmes cliniques si l'équité n'est pas activement prise en compte.

Distinguer les biais dans l'Ai des concepts connexes

Il est important de différencier les biais dans l'IA, qui concernent principalement l'équité et les implications éthiques, d'autres concepts connexes dans l'apprentissage automatique (ML) :

  • Biais des ensembles de données: Bien qu'il s'agisse d'une source primaire de biais d'IA, le biais des ensembles de données fait spécifiquement référence à la nature non représentative des données elles-mêmes. Les biais de l'IA sont le résultat plus large d'une injustice systématique, qui peut provenir de biais de jeux de données, de choix algorithmiques ou de facteurs humains.
  • Biais algorithmique: il s'agit spécifiquement du biais introduit par le processus de conception ou d'optimisation du modèle, par opposition au biais provenant uniquement des données. Il s'agit d'une autre source potentielle contribuant au biais global de l'IA.
  • Compromis biais-variance: Il s'agit d'un concept statistique de base en ML décrivant la tension entre la simplicité du modèle (biais élevé, conduisant potentiellement à un sous-ajustement) et la complexité du modèle (variance élevée, conduisant potentiellement à un surajustement). Bien que le terme "biais" soit utilisé ici, il fait référence à l'erreur de modèle due à des hypothèses trop simplistes, distincte des implications éthiques ou d'équité du biais de l'IA.

S'attaquer aux préjugés de l'Ai

Atténuer les biais de l'IA est un processus continu qui nécessite une approche à multiples facettes tout au long du cycle de vie du développement de l'IA :

  • Conservation et enrichissement des données : Recueillir activement des ensembles de données diversifiés et représentatifs. Utilise des techniques telles que l'augmentation des données et la génération de données potentiellement synthétiques pour équilibrer la représentation des différents groupes. Exploite des ressources telles que la collection d'ensembles de donnéesUltralytics pour obtenir des sources de données diverses.
  • Mesures d'équité et audit : Définir et mesurer l'équité à l'aide de paramètres appropriés pendant l'évaluation du modèle. Vérifier régulièrement que les modèles ne sont pas biaisés dans les différents sous-groupes avant et après leur déploiement.
  • Sélection et modification des algorithmes : Choisis des algorithmes moins susceptibles d'être biaisés ou modifie les algorithmes existants pour y intégrer des contraintes d'équité.
  • Transparence et explicabilité : Employer des techniques d'IA explicable (XAI) pour comprendre le comportement des modèles et identifier les sources potentielles de biais. En savoir plus sur les concepts XAI.
  • Cadres éthiques et gouvernance : Mettre en place des lignes directrices et des structures de gouvernance solides en matière d'éthique de l'IA, en se référant à des cadres tels que le cadre de gestion des risques de l'IA du NIST, afin de guider le développement et le déploiement.

Des plateformes comme Ultralytics HUB fournissent des outils qui soutiennent le développement de systèmes d'IA plus équitables en permettant une gestion minutieuse des ensembles de données, en facilitant la formation de modèles personnalisés et en permettant le suivi des... Ultralytics YOLO de Ultralytics. La sensibilisation et l'intégration des principes d'équité dans l'IA (souvent abordés dans des forums tels que la conférence ACM FAccT) sont essentielles pour aborder le développement responsable de l'IA et créer une technologie qui profite équitablement à la société.

Tout lire