Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024

Adopter une IA responsable avec Ultralytics YOLOv8

Abirami Vina

4 min de lecture

5 septembre 2024

Apprenez à développer des solutions d'IA responsables avec Ultralytics YOLOv8 en suivant les meilleures pratiques d'éthique et de sécurité, et en privilégiant les innovations d'IA équitables et conformes.

L'avenir de l'IA est entre les mains des développeurs, des passionnés de technologie, des chefs d'entreprise et des autres parties prenantes qui utilisent des outils et des modèles comme Ultralytics YOLOv8 pour stimuler l'innovation. Cependant, la création de solutions d'IA percutantes ne se limite pas à l'utilisation de technologies de pointe. Il s'agit également de le faire de manière responsable. 

L'IA responsable est un sujet de conversation populaire dans la communauté de l'IA ces derniers temps, avec de plus en plus de personnes qui parlent de son importance et partagent leurs réflexions. Des discussions en ligne aux événements de l'industrie, l'accent est de plus en plus mis sur la façon dont nous pouvons rendre l'IA non seulement puissante, mais aussi éthique. Un thème commun dans ces conversations est l'importance de s'assurer que tous ceux qui contribuent à un projet d'IA maintiennent un état d'esprit axé sur l'IA responsable à chaque étape. 

Dans cet article, nous commencerons par explorer certains événements et discussions récents liés à l'IA responsable. Ensuite, nous examinerons de plus près les défis éthiques et de sécurité uniques liés au développement de projets de vision par ordinateur et comment nous assurer que votre travail est à la fois innovant et éthique. En adoptant les principes de l'IA responsable, nous pouvons créer une IA qui profite réellement à tous !

L'IA responsable en 2024

Ces dernières années, on a constaté une volonté notable de rendre l'IA plus éthique. En 2019, seulement 5 % des organisations avaient établi des lignes directrices éthiques pour l'IA, mais en 2020, ce nombre avait grimpé à 45 %. En conséquence, nous commençons à voir davantage d'articles de presse liés aux défis et aux succès de ce changement éthique. En particulier, il y a eu beaucoup de buzz autour de l'IA générative et de la façon de l'utiliser de manière responsable.

Au premier trimestre 2024, le chatbot d'IA de Google, Gemini, qui peut générer des images à partir d'invites textuelles, a fait l'objet de nombreuses discussions. En particulier, Gemini a été utilisé pour créer des images représentant diverses figures historiques, telles que des soldats allemands de la Seconde Guerre mondiale, comme des personnes de couleur. Le chatbot d'IA a été conçu pour diversifier la représentation des personnes dans ses images générées afin d'être intentionnellement inclusif. Cependant, à l'occasion, le système a mal interprété certains contextes, ce qui a donné lieu à des images considérées comme inexactes et inappropriées.

__wf_reserved_inherit
Fig.1 Une image générée par Gemini.

Le responsable de la recherche chez Google, Prabhakar Raghavan, a expliqué dans un article de blog que l'IA était devenue excessivement prudente et avait même refusé de générer des images en réponse à des invites neutres. Alors que la fonction de génération d'images de Gemini a été conçue pour promouvoir la diversité et l'inclusion dans le contenu visuel, elle soulève des inquiétudes quant à l'exactitude des représentations historiques et aux implications plus larges en matière de biais et de développement responsable de l'IA. Le débat se poursuit sur la manière d'équilibrer l'objectif de promouvoir des représentations diverses dans le contenu généré par l'IA avec la nécessité d'assurer l'exactitude et de se prémunir contre les fausses déclarations.

Des histoires comme celle-ci montrent clairement que, à mesure que l'IA continue d'évoluer et de s'intégrer davantage dans notre vie quotidienne, les décisions prises par les développeurs et les entreprises peuvent avoir un impact significatif sur la société. Dans la section suivante, nous examinerons les conseils et les meilleures pratiques pour construire et gérer des systèmes d'IA de manière responsable en 2024. Que vous débutiez ou que vous cherchiez à affiner votre approche, ces directives vous aideront à contribuer à un avenir de l'IA plus responsable.

Considérations éthiques dans les projets YOLOv8

Lors de la création de solutions de vision par ordinateur avec YOLOv8, il est important de garder à l'esprit quelques considérations éthiques clés, comme les biais, l'équité, la confidentialité, l'accessibilité et l'inclusivité. Examinons ces facteurs avec un exemple concret.

__wf_reserved_inherit
Fig.2 Considérations éthiques et juridiques en matière d'IA.

Imaginons que vous développiez un système de surveillance pour un hôpital qui surveille les couloirs à la recherche de comportements suspects. Le système pourrait utiliser YOLOv8 pour détecter des éléments tels que des personnes qui traînent dans des zones réglementées, des accès non autorisés, ou même repérer des patients qui pourraient avoir besoin d'aide, comme ceux qui errent dans des zones dangereuses. Il analyserait les flux vidéo en direct des caméras de sécurité dans tout l'hôpital et enverrait des alertes en temps réel au personnel de sécurité lorsqu'un événement inhabituel se produit.

Si votre modèle YOLOv8 est entraîné sur des données biaisées, il pourrait finir par cibler injustement certains groupes de personnes en fonction de facteurs tels que la race ou le sexe, ce qui entraînerait de fausses alertes, voire de la discrimination. Pour éviter cela, il est essentiel d'équilibrer votre ensemble de données et d'utiliser des techniques pour détecter et corriger tout biais, telles que :

  • Augmentation des données : L'amélioration du jeu de données avec divers exemples garantit une représentation équilibrée dans tous les groupes.
  • Ré-échantillonnage : Ajustement de la fréquence des classes sous-représentées dans les données d'entraînement afin d'équilibrer l'ensemble de données.
  • Algorithmes tenant compte de l'équité : Mise en œuvre d'algorithmes spécifiquement conçus pour réduire les biais dans les prédictions.
  • Outils de détection des biais : Utilisation d'outils qui analysent les prédictions du modèle pour identifier et corriger les biais.

La confidentialité est une autre préoccupation majeure, en particulier dans des contextes comme les hôpitaux où des informations sensibles sont impliquées. YOLOv8 pourrait capturer des informations personnelles sur les patients et le personnel, comme leurs visages ou leurs activités. Pour protéger leur vie privée, vous pouvez prendre des mesures comme l'anonymisation des données pour supprimer toute information permettant de les identifier, obtenir le consentement approprié des personnes avant d'utiliser leurs données, ou flouter les visages dans le flux vidéo. C'est également une bonne idée de chiffrer les données et de s'assurer qu'elles sont stockées et transmises en toute sécurité pour empêcher tout accès non autorisé.

Il est également important de concevoir votre système pour qu'il soit accessible et inclusif. Vous devez vous assurer qu'il fonctionne pour tout le monde, quelles que soient ses capacités. Dans un contexte hospitalier, cela signifie que le système doit être facile à utiliser pour l'ensemble du personnel, des patients et des visiteurs, y compris ceux qui ont des handicaps ou d'autres besoins en matière d'accessibilité. Avoir une équipe diversifiée peut faire une grande différence ici. Les membres de l'équipe issus de différents horizons peuvent offrir de nouvelles perspectives et aider à identifier les problèmes potentiels qui pourraient être manqués. En apportant différents points de vue, vous êtes plus susceptible de construire un système convivial et accessible à un large éventail de personnes.

Meilleures pratiques de sécurité pour YOLOv8

Lors du déploiement de YOLOv8 dans des applications du monde réel, il est important de donner la priorité à la sécurité afin de protéger à la fois le modèle et les données qu'il utilise. Prenons, par exemple, un système de gestion des files d'attente dans un aéroport qui utilise la vision par ordinateur avec YOLOv8 pour surveiller le flux de passagers. YOLOv8 peut être utilisé pour suivre le mouvement des passagers à travers les points de contrôle de sécurité, les portes d'embarquement et d'autres zones afin d'aider à identifier les points de congestion et d'optimiser le flux de personnes pour réduire les temps d'attente. Le système peut utiliser des caméras placées stratégiquement autour de l'aéroport pour capturer des flux vidéo en direct, avec YOLOv8 détectant et comptant les passagers en temps réel. Les informations tirées de ce système peuvent ensuite être utilisées pour alerter le personnel lorsque les files d'attente deviennent trop longues, ouvrir automatiquement de nouveaux points de contrôle ou ajuster les niveaux de personnel pour rendre les opérations plus fluides.

__wf_reserved_inherit
Fig.3 Gestion des files d'attente à un guichet d'aéroport à l'aide d'Ultralytics YOLOv8.

Dans ce contexte, il est essentiel de protéger le modèle YOLOv8 contre les attaques et les falsifications. Cela peut être fait en chiffrant les fichiers du modèle afin que les utilisateurs non autorisés ne puissent pas facilement y accéder ou les modifier. Vous pouvez déployer le modèle sur des serveurs sécurisés et configurer des contrôles d'accès pour empêcher toute falsification. Des contrôles de sécurité et des audits réguliers peuvent aider à détecter les vulnérabilités et à maintenir le système sécurisé. Des méthodes similaires peuvent être utilisées pour protéger les données sensibles, telles que les flux vidéo des passagers.

Pour renforcer davantage la sécurité, des outils tels que Snyk, GitHub CodeQL et Dependabot peuvent être intégrés au processus de développement. Snyk aide à identifier et à corriger les vulnérabilités dans le code et les dépendances, GitHub CodeQL analyse le code à la recherche de problèmes de sécurité, et Dependabot maintient les dépendances à jour avec les derniers correctifs de sécurité. Chez Ultralytics, ces outils ont été mis en œuvre pour détecter et prévenir les vulnérabilités de sécurité.

Pièges courants et comment les éviter

Malgré de bonnes intentions et le respect des meilleures pratiques, des erreurs peuvent toujours se produire, laissant des lacunes dans vos solutions d'IA, en particulier en ce qui concerne l'éthique et la sécurité. Être conscient de ces problèmes courants peut vous aider à les résoudre de manière proactive et à créer des modèles YOLOv8 plus robustes. Voici quelques pièges à surveiller et des conseils sur la façon de les éviter :

  • Négliger la conformité aux réglementations : Le non-respect des réglementations en matière d’IA peut entraîner des difficultés juridiques et nuire à votre réputation. Restez informé des lois pertinentes, comme le RGPD pour la protection des données, et assurez-vous que vos modèles sont conformes en effectuant des contrôles de conformité réguliers.
  • Tests inadéquats dans des conditions réelles : Les modèles qui ne sont pas testés dans des conditions réelles peuvent échouer lors du déploiement. Simulez des scénarios de cas extrêmes réels pendant les tests pour identifier rapidement les problèmes potentiels et ajuster vos modèles afin qu'ils soient plus accessibles à tous.
  • Manque de mesures de responsabilisation : S'il n'est pas clair qui est responsable des différentes parties d'un système d'IA, il peut être difficile de gérer les erreurs, les biais ou les utilisations abusives, ce qui peut entraîner des problèmes plus importants. Établissez une responsabilisation claire pour les résultats de l'IA en définissant les rôles et les responsabilités au sein de votre équipe et en mettant en place des processus pour résoudre les problèmes lorsqu'ils surviennent.
  • Ne pas tenir compte de l’impact environnemental : Les modèles d’IA peuvent avoir de graves impacts environnementaux. Par exemple, les déploiements à grande échelle peuvent nécessiter le soutien de centres de données qui consomment de grandes quantités d’énergie pour gérer des calculs intensifs. Vous pouvez optimiser vos modèles pour qu’ils soient écoénergétiques et tenir compte de l’empreinte environnementale de vos processus de formation et de déploiement.
  • Négliger la sensibilité culturelle : Les modèles entraînés sans tenir compte des différences culturelles peuvent être inappropriés ou offensants dans certains contextes. Assurez-vous que votre solution d'IA respecte les normes et les valeurs culturelles en incluant diverses perspectives culturelles dans vos données et votre processus de développement.
__wf_reserved_inherit
Fig.4 Principes et exigences éthiques.

Construire des solutions éthiques et sécurisées avec YOLOv8 

La création de solutions d'IA avec YOLOv8 offre de nombreuses possibilités intéressantes, mais il est essentiel de garder à l'esprit l'éthique et la sécurité. En mettant l'accent sur l'équité, la confidentialité, la transparence et en suivant les bonnes directives, nous pouvons créer des modèles qui fonctionnent bien et respectent les droits des personnes. Il est facile de négliger des aspects tels que les biais dans les données, la protection de la vie privée ou le fait de s'assurer que tout le monde peut utiliser le système, mais prendre le temps de résoudre ces problèmes peut changer la donne. Alors que nous continuons à repousser les limites de ce que l'IA peut faire avec des outils comme YOLOv8, n'oublions pas le côté humain de la technologie. En étant réfléchis et proactifs, nous pouvons créer des innovations en matière d'IA qui soient responsables et avancées !

N'oubliez pas de rejoindre notre communauté pour obtenir les dernières mises à jour en matière d'IA ! De plus, vous pouvez en apprendre davantage sur l'IA en visitant notre dépôt GitHub et en explorant nos solutions dans divers domaines tels que la fabrication et la conduite autonome.

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers