Biais dans l'IA
Découvrez comment identifier, atténuer et prévenir les biais dans les systèmes d'IA grâce à des stratégies, des outils et des exemples concrets pour un développement éthique de l'IA.
Les biais dans l'IA font référence à des erreurs systématiques ou à des préjugés intégrés dans un système d'intelligence artificielle (IA).
système d'intelligence artificielle (IA) qui
qui aboutissent à des résultats injustes, inéquitables ou discriminatoires. Contrairement aux erreurs aléatoires, ces biais sont cohérents et répétables, privilégiant souvent un groupe arbitraire d'utilisateurs.
répétables, privilégiant souvent un groupe arbitraire d'utilisateurs ou d'entrées de données par rapport à d'autres. Alors que les organisations intègrent de plus en plus
l'apprentissage automatique (ML) dans les processus
processus décisionnels critiques, la reconnaissance et la prise en compte des biais sont devenues un pilier central de l'éthique de l'IA.
éthique de l'IA. L'incapacité à atténuer ces problèmes peut conduire à
résultats biaisés dans des applications allant de l'IA
de l 'IA dans les diagnostics de santé à l'automatisation
prêts financiers automatisés.
Sources de biais dans les systèmes d'IA
Les biais peuvent s'infiltrer dans les systèmes d'IA à plusieurs stades du cycle de développement. La compréhension de ces origines est
essentielle pour créer des modèles robustes et équitables.
-
Biais de l'ensemble des données: il s'agit de la source la plus répandue.
source la plus répandue, qui se produit lorsque les données d'apprentissage utilisées pour enseigner le modèle ne sont pas conformes à la réalité.
données d'apprentissage utilisées pour enseigner le modèle ne
ne représentent pas fidèlement la population réelle. Par exemple, si un
modèle de classification d'images est entraîné
sur des images provenant de pays occidentaux, il peut avoir du mal à reconnaître des objets ou des scènes provenant d'autres régions, un phénomène souvent lié à un biais de sélection.
phénomène souvent lié à un biais de sélection.
-
Biais algorithmique: parfois,
la conception mathématique de l'algorithme lui-même peut amplifier les disparités existantes. Certains
algorithmes d'optimisation peuvent privilégier
l'exactitude globale aux dépens des sous-groupes sous-représentés, ignorant ainsi les valeurs
sous-représentés, ignorant de fait les "valeurs aberrantes" qui représentent des populations minoritaires valides.
-
Biais cognitifs et humains : les choix subjectifs faits par les ingénieurs lors de l'étiquetage
l'étiquetage des données ou la sélection des
d'encoder par inadvertance des préjugés humains dans le système.
Applications et implications dans le monde réel
Les conséquences de la partialité de l'IA sont observables dans diverses technologies déployées.
-
Disparités en matière d'identification faciale : Les systèmes commerciaux de
Les systèmes commerciaux de reconnaissance faciale ont toujours présenté des taux d'erreur plus élevés lors de l'identification des femmes et des personnes de couleur.
des taux d'erreur plus élevés lors de l'identification des femmes et des personnes de couleur. Des projets de recherche tels que
Gender Shades ont mis en évidence la façon dont des ensembles de données non représentatifs entraînent de mauvaises performances pour des groupes démographiques spécifiques.
des ensembles de données non représentatifs conduisent à des performances médiocres pour des groupes démographiques spécifiques, ce qui a suscité des appels à de meilleures normes en matière de confidentialité des données et d'inclusivité.
de la confidentialité des données et des normes d'inclusion.
-
Police prédictive et récidive : Les algorithmes utilisés pour prédire la récidive criminelle ont été
ont été critiqués pour leur partialité raciale. Des enquêtes telles que l'analyse
ProPublica sur le COMPAS
a révélé que certains modèles étaient plus susceptibles de signaler à tort des accusés issus de minorités comme étant à haut risque, ce qui illustre les dangers de s'appuyer sur des données historiques relatives aux arrestations.
les dangers de s'appuyer sur des données historiques d'arrestations qui reflètent les inégalités sociétales.
Stratégies et outils d'atténuation
Pour lutter contre les préjugés, il faut adopter une approche proactive connue sous le nom de
L 'équité dans l'IA. Les développeurs peuvent employer plusieurs
techniques pour detect et réduire les préjugés.
-
Augmentation des données : Une méthode efficace pour améliorer la généralisation des modèles est
l'augmentation des données. En générant artificiellement des
variations de points de données existants, comme le retournement, la rotation ou l'ajustement de l'équilibre des couleurs des images, les développeurs peuvent mettre en évidence des modèles tels que l'analyse des données, l'analyse des données, l'analyse des données, etc.
peuvent exposer des modèles tels que Ultralytics YOLO11 à une plus grande
d'entrées.
-
Audit algorithmique : Il est essentiel de tester régulièrement les modèles par rapport à divers critères de référence. Des outils tels que
AI Fairness 360 d'IBM et
Fairlearn de Microsoft fournissent des mesures pour évaluer la performance des modèles dans
différents sous-groupes.
-
Transparence : L'adoption de pratiques d'IA
pratiques d'IA explicable (XAI) aide les
les parties prenantes à comprendre pourquoi un modèle fait des prédictions spécifiques, ce qui permet de repérer plus facilement les logiques discriminatoires.
discriminatoire.
Exemple de code : Améliorer la généralisation grâce à l'augmentation
L'extrait Python suivant montre comment appliquer l'augmentation des données pendant la formation avec la fonction
ultralytics . Cela permet au modèle de devenir invariant par rapport à certains changements, ce qui réduit potentiellement l'adaptation excessive à des caractéristiques visuelles spécifiques.
l'adaptation excessive à des caractéristiques visuelles spécifiques.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
data="coco8.yaml",
epochs=5,
fliplr=0.5, # Apply horizontal flip with 50% probability
hsv_h=0.015, # Adjust image hue fraction
)
Distinguer les termes apparentés
Il est utile de différencier le terme "biais dans l'IA" des termes du glossaire qui lui sont étroitement liés :
-
Biais dans l'IA et biais algorithmique:
Le terme "biais dans l'IA" est le terme générique qui englobe toutes les sources d'injustice (données, humaines et systémiques).
Le "biais algorithmique" se réfère spécifiquement au biais introduit par les procédures de calcul ou les fonctions objectives du modèle.
fonctions objectives du modèle.
-
Biais dans l'IA et biais dans les ensembles de données:
Le "biais des ensembles de données" est une cause spécifique de biais dans l'IA, qui trouve son origine dans la collecte et la conservation du matériel d'entraînement.
d'entraînement. Un algorithme parfaitement équitable peut néanmoins présenter des "biais dans l'IA" s'il apprend à partir d'un ensemble de données biaisé.
En adhérant à des cadres tels que le
cadre de gestion des risques liés à l'IA du NIST, les développeurs peuvent
travailler à la construction d'une
IA responsable
responsables qui servent tout le monde de manière équitable.