En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Découvrez comment les nouvelles lois californiennes sur l'IA équilibrent l'innovation et la responsabilité, en couvrant la confidentialité, les deepfakes, les soins de santé, l'éducation et la sécurité.
Des voitures autonomes aux soins de santé, les innovations en matière d'intelligence artificielle (IA) et les entreprises technologiques de nouvelle génération commencent à jouer un rôle clé dans la transformation de notre vie quotidienne. Par conséquent, la taille du marché mondial de l'IA était de 196,63 milliards de dollars en 2023 et devrait croître en moyenne de 36 % par an de 2024 à 2030. Ces chiffres montrent la rapidité avec laquelle l'IA se développe.
D'une part, le développement rapide de l'IA crée des solutions à divers problèmes dans différents secteurs. D'autre part, cette rapidité met en évidence la nécessité d'un développement de l'IA responsable pour s'assurer que les améliorations sont éthiques et bénéfiques pour la société.
Par exemple, en 2016, Microsoft a lancé un chatbot, Tay, sur X (anciennement Twitter). Il était conçu pour apprendre des conversations avec les utilisateurs. Cependant, peu après sa sortie, Tay a commencé à générer des réponses avec un langage non professionnel, car il a repris une série d'interactions. Bien que Microsoft ait rapidement mis le bot hors ligne, c'est un bon exemple de l'importance de s'assurer que les données utilisées pour l'entraînement de l'IA sont fiables et que le public est conscient de la façon dont les entreprises utilisent ces données pour les produits d'IA.
Pour répondre à cette préoccupation, le gouverneur de Californie, Gavin Newsom, a promulgué plus d'une douzaine de projets de loi liés à l'IA en septembre dernier. Ces lois abordent tous les aspects, de la divulgation des détails sur les données d'entraînement à la gestion des deepfakes. Dans cet article, nous explorerons les lois californiennes sur l'IA et ce qu'elles impliquent. Commençons !
Législation californienne sur l'IA 2024 : Garantir la responsabilité
Trois lois importantes ont été promulguées pour soutenir un développement de l'IA plus sûr et plus fiable. L'Assembly Bill (AB) 2013, qui entrera en vigueur en 2026, exige des fournisseurs d'IA générative qu'ils publient des informations détaillées concernant leurs jeux de données d'entraînement. Ces informations comprennent les sources des jeux de données, des détails sur la manière dont les données sont utilisées, le nombre de points de données dans l'ensemble, si des données protégées par le droit d'auteur ou sous licence sont incluses, la période pendant laquelle les données ont été collectées, etc. Le partage de ces informations aidera les entreprises d'IA à établir la confiance du public.
Un autre projet de loi important qui a été signé est AB 1008. Il étend les lois californiennes existantes sur la protection de la vie privée aux solutions d'IA générative. AB 1008 a été introduit pour répondre aux préoccupations et améliorer la confiance du public dans la manière dont les systèmes d'IA traitent les informations personnelles. Une enquête a révélé que plus de 81 % des consommateurs craignent que les entreprises d'IA n'utilisent leurs informations d'une manière qu'ils n'avaient pas prévue. En fixant des limites claires sur la manière dont les entreprises peuvent utiliser et tirer profit des informations personnelles, telles que les noms, les adresses et les données biométriques, cette loi aide les entreprises d'IA à rassurer les utilisateurs sur le fait que leurs données seront traitées de manière responsable, même si elles sont exposées par un système d'IA.
Fig 2. Une infographie montrant que de nombreuses personnes pensent que les solutions d'IA peuvent être améliorées en matière de confidentialité.
Adoption et réglementation de l'IA dans les établissements d'enseignement
Nous avons précédemment exploré comment l'IA dans l'éducation peut personnaliser les expériences d'apprentissage, redéfinir les pratiques d'enseignement, offrir un retour d'information en temps réel et aider les éducateurs grâce à des outils et des informations avancés. En fait, les innovations en matière d'IA peuvent créer un environnement d'étude plus efficace et engageant pour les étudiants. Les éducateurs et les enseignants du monde entier utilisent l'IA plus régulièrement, avec des projets pilotes réussis et des mises en œuvre plus larges en cours. Des études montrent que plus de 50 % des enseignants estiment que l'IA dans les salles de classe a eu un impact positif sur le processus d'enseignement et d'apprentissage.
Fig 3. Enquête montrant ce que les enseignants pensent de l'utilisation de l'IA dans les écoles.
La Californie a introduit deux lois concernant l'utilisation de l'IA dans les établissements d'enseignement. La loi AB 2876 impose au Conseil d'éducation de l'État de Californie de prendre en compte la culture de l'IA (après le 1er janvier 2025) dans ses cadres de programmes et son matériel pédagogique en mathématiques, en sciences et en histoire. L'objectif de cette loi est de s'assurer que les écoles de Californie éduquent les élèves sur les bases du fonctionnement de l'intelligence artificielle, ainsi que sur les limites, les impacts et les considérations éthiques de l'utilisation de cette technologie.
De plus, la SB 1288 exige que les surintendants de Californie créent des groupes de travail (au plus tard le 1er janvier 2026) pour étudier la manière dont l'IA est utilisée dans les écoles publiques. Ces groupes de travail devront soumettre leurs conclusions et recommandations aux comités politiques et financiers compétents de la législature au plus tard le 1er janvier 2027. Une fois le rapport soumis, le groupe de travail sera dissous et les dispositions seront abrogées le 1er janvier 2031.
Réglementations entourant l'IA générative dans le domaine de la santé
Fig 4. Cas d'utilisation de l'IA générative dans le secteur de la santé.
L'intégration de l'IA générative dans le secteur de la santé s'accompagne de certaines mises en garde liées à la confidentialité des données et aux réglementations. Il est essentiel de donner la priorité à l'exactitude, à la fiabilité et à l'équité des résultats générés par l'IA, tout en protégeant la confidentialité des informations de santé.
Pour relever ces défis, la Californie a adopté deux lois concernant l'utilisation de l'IA générative dans le domaine de la santé. L'AB 3030 exige que les prestataires de soins de santé divulguent lorsqu'ils utilisent l'IA générative pour communiquer avec un patient, en particulier lorsque ces messages contiennent des informations cliniques sur le patient. La SB 1120 impose des limitations sur la façon dont les prestataires de services de santé et les assureurs maladie peuvent automatiser leurs services. Ces nouvelles lois garantissent également que des médecins agréés supervisent l'utilisation des outils d'IA dans ces contextes.
Les cadres réglementaires californiens en matière d'IA pour les deepfakes
L'État de Californie a également adopté des lois visant à freiner l'utilisation de l'IA pour diffuser des informations trompeuses ou inexactes. La SB 942 exige que les systèmes d'IA générative populaires indiquent clairement dans leurs données sources que le contenu a été créé par l'IA. De nombreuses entreprises d'IA le font déjà, et plusieurs outils gratuits (ZeroGPT, Winston AI, GLTR, etc.) peuvent aider les gens à lire ces données sources et à détecter le contenu généré par l'IA.
Trois nouvelles lois (AB 1831, SB 926, SB 981) ont été adoptées en Californie pour traiter les problèmes liés aux deepfakes. Ces lois étendent les protections existantes, criminalisent l'utilisation abusive de contenu généré par l'IA et obligent les plateformes de médias sociaux à créer des canaux de signalement pour le contenu deepfake. Les lois devraient être mises en œuvre d'ici janvier 2025.
Les lois californiennes sur l'IA concernant la définition de l'IA et son utilisation dans le cinéma
L'un des projets de loi qui a été adopté se concentrait sur la définition appropriée de l'IA. AB 2885 stipule que l'IA est définie comme « un système conçu ou basé sur une machine qui varie dans son niveau d'autonomie et qui peut, pour des objectifs explicites ou implicites, déduire de l'entrée qu'il reçoit comment générer des sorties qui peuvent influencer les environnements physiques ou virtuels. »
Deux lois intéressantes ont également été mises en place pour l'industrie du divertissement. Le plus grand syndicat américain des acteurs de cinéma et de télévision (SAG-AFTRA) a joué un rôle crucial dans l'entrée en vigueur de ces lois. La loi AB 2602 exige que les studios de cinéma obtiennent l'autorisation d'un acteur avant d'utiliser l'IA pour créer une réplique de sa voix et de son apparence. Parallèlement, la loi AB 1836 interdit aux studios de créer des répliques numériques d'artistes décédés (comme le personnage de Peter Cushing dans Star Wars : Rogue One) sans le consentement de leurs ayants droit.
Fig 5. Le personnage, Grand Moff Tarkin, a été créé en utilisant l'image de l'acteur décédé Peter Cushing.
Le principal moteur des lois californiennes sur l'IA
Alors que nous avons pris connaissance de chacune de ces lois, vous vous êtes peut-être demandé pourquoi elles sont réellement nécessaires. Les réglementations en matière d'IA sont un sujet de discussion populaire depuis un certain temps déjà, mais elles ont pris un essor considérable avec la montée en puissance du contenu deepfake, qui a eu un impact sur divers domaines, notamment les médias et la politique. L'utilisation de contenu généré par l'IA en ligne a suscité des inquiétudes quant à la désinformation et à son impact potentiel sur les résultats des élections, par exemple. On s'inquiète également de plus en plus de la protection de la vie privée et de l'utilisation abusive des données personnelles par les innovations en matière d'IA. Ces problèmes ont contribué à la mise en place de plusieurs nouvelles lois pour y remédier.
Par exemple, la loi AB 2905 oblige les appels automatisés à divulguer s'ils sont générés par des voix d'IA. De plus, la loi AB 2655 exige que les grandes plateformes en ligne comme Facebook et X suppriment ou étiquettent les deepfakes liés aux élections et créent des canaux de signalement pour ce type de contenu. Les candidats et les élus peuvent également demander une injonction si les plateformes ne se conforment pas à la loi.
Une autre loi, AB 2839, cible les utilisateurs des médias sociaux qui publient ou republient des deepfakes susceptibles d'induire les électeurs en erreur. De même, AB 2355 stipule des divulgations claires pour les publicités politiques réalisées à l'aide d'outils d'IA.
Principaux points à retenir des nouvelles lois californiennes sur l'IA
Les nouvelles lois californiennes sur l'IA reflètent un engagement croissant à équilibrer l'innovation et la responsabilité. En abordant les principales préoccupations dans des domaines tels que la transparence des données, la confidentialité, les deepfakes et l'utilisation de l'IA dans les soins de santé et l'éducation, ces lois visent à protéger les individus et la société tout en promouvant un développement responsable de l'IA. Alors que l'IA continue d'évoluer, ces réglementations contribueront à garantir que sa croissance s'accompagne de pratiques éthiques et de la confiance du public. Ces lois pourraient également encourager d'autres régions du monde à faire de même.
Pour en savoir plus, consultez notre dépôt GitHub et échangez avec notre communauté. Explorez les applications de l'IA dans la fabrication et l'agriculture sur nos pages de solutions. 🚀