Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Simulation d'attaques par une équipe rouge utilisant l'IA

Découvrez comment l'AI Red Teaming protège les systèmes d'IA contre les vulnérabilités et les biais. Apprenez à utiliser Ultralytics pour soumettre les modèles de vision artificielle à des tests de résistance afin d'optimiser leur fiabilité.

Le « red teaming » en IA est une pratique de sécurité structurée et proactive dans laquelle des équipes spécialisées simulent des attaques adverses contre des systèmes d’intelligence artificielle (IA) afin de mettre au jour les vulnérabilités, les biais et les risques de sécurité cachés avant leur mise en production. Initialement emprunté à la cybersécurité traditionnelle, le « red teaming » en IA a évolué pour prendre en compte les comportements probabilistes spécifiques et les surfaces d’attaque massives des modèles modernes d’apprentissage automatique (ML), tels que les grands modèles linguistiques (LLM) et les réseaux complexes de vision par ordinateur (CV). En soumettant ces modèles à un examen minutieux et intensif des cas limites, les organisations peuvent s'assurer que leurs systèmes fonctionnent de manière fiable dans des conditions de stress réelles et éviter des défaillances catastrophiques.

Les exercices de simulation d'attaques par l'IA (AI Red Teaming) face aux attaques adversaires et à la sécurité de l'IA

Bien qu’on en parle souvent conjointement, l’« AI Red Teaming » constitue un processus distinct au sein du paysage plus large de la sécurité de l’IA. La sécurité de l’IA est l’objectif global qui consiste à mettre au point des systèmes fiables, éthiques et alignés. Les attaques adversaires sont des techniques spécifiques — telles que les injections de prompts ou les manipulations de pixels — utilisées pour tromper les modèles. L'AI Red Teaming est la méthodologie formalisée et l'exercice opérationnel consistant à utiliser activement ces attaques adversaires et une résolution créative des problèmes pour auditer les défenses d'un modèle. Il s'agit d'une étape essentielle avant le déploiement du modèle et se poursuit par une surveillance continue du modèle afin de détecter les nouvelles menaces émergentes.

Importance et cadres

Les tests classiques en apprentissage profond (DL) s'appuient souvent sur des ensembles de données connus, avec des indicateurs binaires de réussite ou d'échec, qui ne permettent pas de saisir la nature dynamique de l'IA. Le « red teaming » vise à mettre au jour de nouveaux modes de défaillance et à réduire les biais dans l'IA. Les leaders du secteur adhèrent à des lignes directrices établies telles que le cadre de gestion des risques liés à l'IA (AI RMF) du NIST, qui impose des tests adversariaux pour évaluer les systèmes en situation de contrainte. Parmi les autres ressources essentielles, on peut citer la matrice MITRE ATLAS pour la modélisation des menaces spécifiques à l'IA, et le guide OWASP GenAI Red Teaming pour la sécurisation des modèles génératifs. Les chercheurs d'institutions telles que le Center for Security and Emerging Technology (CSET) publient en permanence des bonnes pratiques mises à jour, tandis que les laboratoires mettent l'accent sur les tests dans le cadre de politiques telles que la politique de mise à l'échelleAnthropic et les initiatives de sécurité d'OpenAI.

Applications concrètes

Les exercices de simulation de menaces basés sur l'IA sont essentiels dans les environnements à haut risque où les défaillances peuvent entraîner des conséquences graves.

  • Véhicules autonomes : dans le domaine des technologies de conduite autonome, les équipes « red teams » simulent des aléas environnementaux rares — tels que des panneaux de signalisation altérés de manière malveillante, des conditions météorologiques extrêmes ou des comportements imprévisibles de la part des piétons — afin de tester la robustesse du système de détection d'objets. Cela permet de garantir que le véhicule circule en toute sécurité dans des conditions ne figurant pas dans ses données d'apprentissage standard.
  • Diagnostics médicaux : avant de déployer un modèle d'imagerie médicale, les membres de l'équipe rouge peuvent introduire intentionnellement du bruit, des artefacts ou des perturbations adversaires simulées dans des radiographies ou des IRM. Ces tests adversaires permettent de s'assurer que l'outil de diagnostic ne détecte pas de tumeurs inexistantes et ne passe pas à côté d'anomalies critiques lorsqu'il est confronté à des images de mauvaise qualité provenant d'équipements hospitaliers obsolètes.

Évaluation de la robustesse de l'IA visuelle

Dans les applications de vision artificielle, les tests de type « red teaming » consistent souvent à appliquer des distorsions programmatiques afin de vérifier si un modèle conserve une perception précise. Pour rationaliser ce processus et gérer efficacement les ensembles de données représentant des cas limites, les équipes ont souvent recours à la Ultralytics .

Python suivant présente une simulation de base de type « red teaming » dans laquelle une image est considérablement assombrie afin de tester la résilience Ultralytics , la dernière norme en matière d'IA visuelle axée sur la périphérie.

import cv2
from ultralytics import YOLO

# Load the Ultralytics YOLO26 model for vision AI red teaming
model = YOLO("yolo26n.pt")

# Simulate an adversarial/edge-case condition by severely altering image lighting
image = cv2.imread("image.jpg")
darkened_image = cv2.convertScaleAbs(image, alpha=0.3, beta=0)

# Evaluate if the model's predictions fail or remain robust under stress
results = model(darkened_image)
print(f"Model detected {len(results[0].boxes)} objects in the stressed condition.")

L'intégration d'exercices structurés de « red teaming », s'appuyant sur des outils spécialisés tels que Microsoft et sur les connaissances d'acteurs de premier plan dans le domaine de la sécurité comme Vectra AI et Group-IB, garantit que les organisations déploient des systèmes d'IA qui sont non seulement d'une grande précision, mais aussi fondamentalement sûrs et résilients face aux menaces sophistiquées du monde réel.

Construisons ensemble l'avenir de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique