Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Sécurité de l'IA

Découvrez les principes fondamentaux de la sécurité de l'IA, notamment l'alignement et la robustesse. Découvrez comment déployer des modèles fiables avec Ultralytics et garantir la fiabilité de l'IA.

La sécurité de l'IA est un domaine multidisciplinaire qui vise à garantir que les systèmes d'intelligence artificielle (IA) fonctionnent de manière fiable, prévisible et bénéfique. Contrairement à la cybersécurité, qui protège les systèmes contre les attaques externes, la sécurité de l'IA traite les risques inhérents à la conception et au fonctionnement du système lui-même. Cela inclut la prévention des conséquences imprévues résultant d'un désalignement des objectifs, d'un manque de robustesse dans des environnements nouveaux ou d'échecs dans la généralisation de l'apprentissage profond (DL). À mesure que les modèles deviennent plus autonomes, les chercheurs d'organisations telles que le Center for Human-Compatible AI s'efforcent de garantir que ces technologies s'alignent sur les intentions humaines et les normes de sécurité.

Les piliers fondamentaux d'une IA sûre

La mise en place d'un système sécurisé nécessite de relever plusieurs défis techniques qui vont au-delà des simples mesures de précision. Ces piliers garantissent que les modèles d'apprentissage automatique (ML) restent sous contrôle même lorsqu'ils sont déployés dans des scénarios complexes du monde réel.

  • Robustesse : un modèle sûr doit maintenir ses performances lorsqu'il est confronté à des entrées corrompues ou à des changements dans l' environnement. Cela inclut la défense contre les attaques adversaires, où de subtiles manipulations des données d'entrée peuvent tromper un modèle et lui faire commettre des erreurs à haut niveau de confiance.
  • Alignement : ce principe garantit que les objectifs d'une IA correspondent à l'intention réelle du concepteur. Un désalignement survient souvent dans l' apprentissage par renforcement lorsqu'un système apprend à « manipuler » sa fonction de récompense, comme un robot nettoyeur qui casse un vase pour nettoyer plus rapidement. Des techniques telles que l' apprentissage par renforcement à partir du retour d'information humain (RLHF) sont utilisées pour atténuer ce phénomène.
  • Interprétabilité : également connue sous le nom d' IA explicable (XAI), elle consiste à créer de la transparence dans les modèles de type « boîte noire ». La visualisation des cartes de caractéristiques permet aux ingénieurs de comprendre le processus décisionnel, garantissant ainsi que le modèle ne repose pas sur des corrélations fallacieuses.
  • Surveillance : une surveillance continue du modèle est essentielle pour detect les dérives des données. Les protocoles de sécurité doivent déclencher des alertes ou des mécanismes de secours si les données réelles commencent à diverger de manière significative des données d'entraînement.

Applications concrètes

La sécurité de l'IA est primordiale dans les domaines à haut risque où une défaillance algorithmique pourrait entraîner des dommages physiques ou des pertes économiques importantes .

  1. Véhicules autonomes : dans le domaine de l' IA automobile, les cadres de sécurité définissent la manière dont une voiture réagit à l'incertitude. Si un modèle de détection d'objets ne parvient pas à identifier un obstacle avec un haut degré de certitude, le système doit passer par défaut à un état sûr, tel que le freinage, plutôt que de faire des suppositions. Les directives de la NHTSA relatives aux véhicules automatisés mettent l'accent sur ces mécanismes de sécurité intégrée.
  2. Diagnostic médical : lors de l'application de l' IA dans le domaine de la santé, la sécurité implique de minimiser les faux négatifs dans les diagnostics critiques. Les systèmes sont souvent réglés pour un rappel élevé afin de garantir qu'aucune affection potentielle ne soit manquée, fonctionnant ainsi efficacement comme un « deuxième avis » pour les médecins. Les organismes de réglementation tels que le FDA Digital Health Center fixent des normes rigoureuses pour les logiciels utilisés comme dispositifs médicaux (SaMD).

Mise en œuvre des seuils de sécurité

L'un des mécanismes de sécurité les plus élémentaires en vision par ordinateur est l'utilisation de seuils de confiance. En filtrant les prédictions à faible probabilité lors de l'inférence, les développeurs empêchent les systèmes d'agir sur la base d'informations peu fiables.

L'exemple suivant montre comment appliquer un filtre de sécurité à l'aide d' Ultralytics , afin de garantir que seules les détections fiables sont traitées.

from ultralytics import YOLO

# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")

# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)

# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")

Sécurité de l'IA vs. Éthique de l'IA

Bien que ces termes soient souvent utilisés de manière interchangeable, ils traitent de différents aspects de l'IA responsable.

  • La sécurité de l'IA est une discipline d'ingénierie technique. Elle pose la question suivante : « Ce système fonctionnera-t-il correctement sans causer d'accidents ? » Elle traite de problèmes tels que les hallucinations de modèles et l'exploration sécurisée dans l' apprentissage par renforcement.
  • L'éthique de l'IA est un cadre sociotechnique . Elle pose les questions suivantes : « Devrions-nous construire ce système, et est-ce juste ? » Elle se concentre sur des questions telles que les biais algorithmiques, les droits à la vie privée et la répartition équitable des avantages, comme le souligne la loi européenne sur l'IA.

Perspectives d'avenir

Alors que le secteur évolue vers l' intelligence artificielle générale (AGI), la recherche en matière de sécurité devient de plus en plus cruciale. Les organisations peuvent tirer parti de Ultralytics pour gérer leurs ensembles de données et superviser le déploiement des modèles, garantissant ainsi que leurs solutions d'IA restent robustes, transparentes et conformes aux normes de sécurité tout au long de leur cycle de vie.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant