En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Découvrez comment l'IA constitutionnelle aide les modèles à suivre des règles éthiques, à prendre des décisions plus sûres et à favoriser l'équité dans les systèmes de langage et de vision par ordinateur.
L'intelligence artificielle (IA) devient rapidement un élément clé de notre vie quotidienne. Elle est intégrée dans des outils utilisés dans des domaines tels que la santé, le recrutement, la finance et la sécurité publique. À mesure que ces systèmes se développent, les préoccupations concernant leur éthique et leur fiabilité se font également entendre.
Par exemple, il arrive que des systèmes d'IA construits sans tenir compte de l'équité ou de la sécurité produisent des résultats biaisés ou peu fiables. En effet, de nombreux modèles n'ont toujours pas de moyen clair de refléter et de s'aligner sur les valeurs humaines.
Pour répondre à ces défis, les chercheurs explorent désormais une approche connue sous le nom d'IA constitutionnelle. En termes simples, elle introduit un ensemble écrit de principes dans le processus d'entraînement du modèle. Ces principes aident le modèle à juger son propre comportement, à moins dépendre du feedback humain et à rendre les réponses plus sûres et plus faciles à comprendre.
Jusqu'à présent, cette approche a été principalement utilisée en ce qui concerne les grands modèles de langage (LLM). Cependant, la même structure pourrait aider à guider les systèmes de vision par ordinateur à prendre des décisions éthiques lors de l'analyse de données visuelles.
Dans cet article, nous allons explorer le fonctionnement de l'IA constitutionnelle, examiner des exemples concrets et discuter de ses applications potentielles dans les systèmes de vision par ordinateur.
Fig 1. Caractéristiques de l'IA constitutionnelle. Image de l'auteur.
Qu'est-ce que l'IA constitutionnelle ?
L'IA constitutionnelle est une méthode d'apprentissage de modèles qui guide le comportement des modèles d'IA en fournissant un ensemble clair de règles éthiques. Ces règles servent de code de conduite. Au lieu de s'appuyer sur le modèle pour déduire ce qui est acceptable, il suit un ensemble écrit de principes qui façonnent ses réponses pendant l'apprentissage.
Ce concept a été introduit par Anthropic, une société de recherche axée sur la sécurité de l'IA qui a développé la famille Claude LLM comme méthode pour rendre les systèmes d'IA plus auto-supervisés dans leur prise de décision.
Plutôt que de se fier uniquement au feedback humain, le modèle apprend à critiquer et à affiner ses propres réponses sur la base d'un ensemble de principes prédéfinis. Cette approche est similaire à un système juridique, où un juge se réfère à une constitution avant de rendre un jugement.
Dans ce cas, le modèle devient à la fois le juge et l'élève, utilisant le même ensemble de règles pour examiner et affiner son propre comportement. Ce processus renforce l'alignement du modèle d'IA et soutient le développement de systèmes d'IA sûrs et responsables.
Comment fonctionne l'IA constitutionnelle ?
L'objectif de l'IA constitutionnelle est d'enseigner à un modèle d'IA comment prendre des décisions sûres et équitables en suivant un ensemble clair de règles écrites. Voici une explication simple du fonctionnement de ce processus :
Définition de la constitution : Une liste écrite des principes éthiques que le modèle doit suivre est créée. La constitution décrit ce que l'IA doit éviter et les valeurs qu'elle doit refléter.
Entraînement avec des exemplessupervisés : Le modèle reçoit des exemples de réponses qui suivent la constitution. Ces exemples aident l'IA à comprendre à quoi ressemble un comportement acceptable.
Reconnaissance et application de modèles : Au fil du temps, le modèle commence à identifier ces modèles. Il apprend à appliquer les mêmes valeurs lorsqu'il répond à de nouvelles questions ou gère de nouvelles situations.
Critique et amélioration des sorties : Le modèle examine ses propres réponses et les ajuste en fonction de la constitution. Cette phase d'auto-examen l'aide à s'améliorer sans dépendre uniquement des commentaires humains.
Produire des réponses alignées et plus sûres : Le modèle apprend à partir de règles cohérentes, ce qui contribue à réduire les biais et à améliorer la fiabilité dans l'utilisation réelle. Cette approche le rend plus conforme aux valeurs humaines et plus facile à gérer.
Fig. 2. Un aperçu de l'utilisation de l'IA constitutionnelle pour entraîner des modèles.
Principes fondamentaux de la conception éthique de l'IA
Pour qu'un modèle d'IA respecte des règles éthiques, ces règles doivent d'abord être clairement définies. En ce qui concerne l'IA constitutionnelle, ces règles sont basées sur un ensemble de principes fondamentaux.
Par exemple, voici quatre principes qui constituent le fondement d'une constitution d'IA efficace :
Transparence: Il devrait être facile de comprendre comment un modèle est parvenu à une réponse. Si une réponse est basée sur des faits, des estimations ou des modèles, elle sera transparente pour l'utilisateur. Cela renforce la confiance et aide les gens à juger s'ils peuvent se fier aux résultats du modèle.
Égalité : Les réponses doivent rester cohérentes d'un utilisateur à l'autre. Le modèle ne doit pas modifier sa sortie en fonction du nom, de l'origine ou de la localisation d'une personne. L'égalité contribue à prévenir les biais et à promouvoir l'égalité de traitement.
Responsabilité: Il devrait exister un moyen de retracer la façon dont un modèle a été entraîné et ce qui a influencé son comportement. En cas de problème, les équipes doivent être en mesure d'en identifier la cause et de l'améliorer. Cela favorise la transparence et la responsabilité à long terme.
Sécurité : Les modèles doivent éviter de produire du contenu qui peut causer des dommages. Si une requête conduit à des résultats risqués ou dangereux, le système doit le reconnaître et s'arrêter. Cela protège à la fois l'utilisateur et l'intégrité du système.
Exemples d'IA constitutionnelle dans les grands modèles linguistiques
L'IA constitutionnelle est passée de la théorie à la pratique et est maintenant lentement utilisée dans de grands modèles qui interagissent avec des millions d'utilisateurs. Les LLM d'OpenAI et d'Anthropic sont deux des exemples les plus courants.
Bien que les deux organisations aient adopté des approches différentes pour créer des systèmes d'IA plus éthiques, elles partagent une idée commune : enseigner au modèle à suivre un ensemble de principes directeurs écrits. Examinons de plus près ces exemples.
L'approche d'IA constitutionnelle d'OpenAI
OpenAI a introduit un document appelé Model Spec dans le cadre du processus de formation de ses modèles ChatGPT. Ce document agit comme une constitution. Il décrit ce que le modèle doit viser dans ses réponses, y compris des valeurs telles que l'utilité, l'honnêteté et la sécurité. Il définit également ce qui compte comme une sortie nuisible ou trompeuse.
Ce framework a été utilisé pour affiner les modèles d'OpenAI en évaluant les réponses en fonction de leur conformité aux règles. Au fil du temps, cela a contribué à façonner ChatGPT afin qu'il produise moins de résultats nuisibles et qu'il corresponde mieux aux attentes des utilisateurs.
Fig 3. Un exemple de ChatGPT utilisant Model Spec d'OpenAI pour répondre.
Les modèles d'IA éthiques d'Anthropic
La constitution que suit le modèle d'Anthropic, Claude, est basée sur des principes éthiques provenant de sources telles que la Déclaration universelle des droits de l'homme, les directives de plateformes comme les conditions d'utilisation d'Apple, et la recherche d'autres laboratoires d'IA. Ces principes contribuent à garantir que les réponses de Claude sont sûres, équitables et alignées sur les valeurs humaines importantes.
Claude utilise également l'apprentissage par renforcement à partir de la rétroaction de l'IA (RLAIF), où il examine et ajuste ses propres réponses en fonction de ces directives éthiques, plutôt que de se fier à la rétroaction humaine. Ce processus permet à Claude de s'améliorer au fil du temps, ce qui le rend plus évolutif et plus apte à fournir des réponses utiles, éthiques et non préjudiciables, même dans des situations délicates.
Fig 4. Comprendre l'approche d'Anthropic en matière d'IA constitutionnelle.
Application de l'IA constitutionnelle à la vision par ordinateur
Puisque l'IA constitutionnelle influence positivement le comportement des modèles de langage, cela soulève naturellement la question suivante : une approche similaire pourrait-elle aider les systèmes basés sur la vision à répondre de manière plus équitable et plus sûre ?
Bien que les modèles de vision par ordinateur fonctionnent avec des images au lieu de texte, le besoin de directives éthiques est tout aussi important. Par exemple, l'équité et les biais sont des facteurs clés à prendre en compte, car ces systèmes doivent être formés pour traiter tout le monde de manière égale et éviter les résultats nuisibles ou injustes lors de l'analyse des données visuelles.
Fig 5. Défis éthiques liés à la vision par ordinateur. Image de l'auteur.
À l'heure actuelle, l'utilisation des méthodes d'IA constitutionnelle dans la vision par ordinateur est encore en cours d'exploration et en est à ses débuts, avec des recherches en cours dans ce domaine.
Par exemple, Meta a récemment présenté CLUE, un framework qui applique un raisonnement de type constitutionnel aux tâches de sécurité des images. Il transforme de larges règles de sécurité en étapes précises que l'IA multimodale (les systèmes d'IA qui traitent et comprennent plusieurs types de données) peut suivre. Cela aide le système à raisonner plus clairement et à réduire les résultats nuisibles.
De plus, CLUE rend les jugements de sécurité des images plus efficaces en simplifiant les règles complexes, permettant aux modèles d'IA d'agir rapidement et avec précision sans nécessiter une intervention humaine importante. En utilisant un ensemble de principes directeurs, CLUE rend les systèmes de modération d'images plus évolutifs tout en garantissant des résultats de haute qualité.
Principaux points à retenir
À mesure que les systèmes d'IA assument davantage de responsabilités, l'attention se déplace de ce qu'ils peuvent faire à ce qu'ils devraient faire. Ce changement est essentiel, car ces systèmes sont utilisés dans des domaines qui ont un impact direct sur la vie des gens, tels que la santé, l'application de la loi et l'éducation.
Pour garantir que les systèmes d'IA agissent de manière appropriée et éthique, ils ont besoin d'une base solide et cohérente. Cette base doit donner la priorité à l'équité, à la sécurité et à la confiance.
Une constitution écrite peut fournir cette base pendant l'entraînement, en guidant le processus de prise de décision du système. Elle peut également fournir aux développeurs un cadre pour examiner et ajuster le comportement du système après son déploiement, en veillant à ce qu'il continue de s'aligner sur les valeurs pour lesquelles il a été conçu et en facilitant son adaptation à mesure que de nouveaux défis se présentent.