Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

IA constitutionnelle

Découvrez comment l'IA constitutionnelle garantit des résultats d'IA éthiques, sûrs et non biaisés en alignant les modèles sur des principes prédéfinis et des valeurs humaines.

L'IA constitutionnelle (CAI) est une méthode développée par Anthropic pour entraîner des modèles d'IA, en particulier les grands modèles linguistiques (LLM), à s'aligner sur un ensemble spécifique de règles ou de principes, connu sous le nom de "constitution". L'objectif principal de la CAI est de rendre les systèmes d'IA utiles, inoffensifs et plus contrôlables sans nécessiter une intervention humaine importante. Au lieu que des humains étiquettent constamment les résultats nuisibles, l'IA apprend à critiquer et à réviser ses propres réponses en fonction des principes directeurs de sa constitution. Cette approche permet de relever les principaux défis de l'éthique de l'IA, tels que la prévention de la génération de contenu toxique et la réduction des biais algorithmiques.

Comment fonctionne l'IA constitutionnelle

Le processus de formation CAI comprend généralement deux phases principales :

  1. Phase d'apprentissage supervisé : Initialement, un modèle de base est invité à générer des réponses. Ensuite, le même modèle est invité à critiquer ses propres réponses en fonction de la constitution et à les réécrire pour mieux s'aligner sur ses principes. Cela crée un nouvel ensemble de données d'exemples améliorés et alignés sur la constitution. Ce mécanisme d'autocritique est guidé par une constitution, qui peut être une simple liste de règles ou s'inspirer de sources complexes comme la Déclaration des droits de l'homme des Nations unies.
  2. Phase d'apprentissage par renforcement : Le modèle est ensuite affiné à l'aide de l'apprentissage par renforcement (RL). Dans cette étape, l'IA génère des paires de réponses, et un modèle de préférence (entraîné sur les données auto-critiquées de la première phase) sélectionne celle qui adhère le mieux à la constitution. Ce processus enseigne à l'IA à préférer intrinsèquement les sorties qui sont cohérentes avec ses principes fondamentaux.

Un exemple concret clé de CAI est sa mise en œuvre dans l'assistant IA d'Anthropic, Claude. Sa constitution le guide pour éviter de générer des instructions nuisibles, refuser de s'engager dans des activités illégales et communiquer de manière non toxique, tout en restant utile. Une autre application est la modération automatisée du contenu, où un modèle piloté par CAI pourrait être utilisé pour identifier et signaler les discours haineux ou la désinformation en ligne, conformément à un ensemble prédéfini de directives éthiques.

IA constitutionnelle vs. concepts connexes

Il est important de distinguer la CAI des termes similaires :

  • Apprentissage par renforcement à partir de la rétroaction humaine (RLHF) : Le RLHF s’appuie sur des humains pour fournir une rétroaction et classer les réponses générées par l’IA, ce qui prend du temps et est difficile à mettre à l’échelle. Le CAI remplace la boucle de rétroaction humaine par une boucle axée sur l’IA, où la constitution du modèle guide la rétroaction. Cela rend le processus d’alignement plus évolutif et cohérent.
  • Éthique de l'IA : Il s'agit d'un vaste domaine qui s'intéresse aux principes moraux et aux problèmes techniques liés à la création d'une IA responsable. L'IA constitutionnelle peut être considérée comme un cadre pratique pour mettre en œuvre l'éthique de l'IA en intégrant des règles éthiques explicites directement dans le processus d'entraînement du modèle.

Applications et potentiel futur

Actuellement, l'IA constitutionnelle est principalement appliquée aux LLM pour des tâches telles que la génération de dialogues et la synthèse de texte. Cependant, les principes sous-jacents pourraient potentiellement s'étendre à d'autres domaines de l'IA, y compris la vision par ordinateur (CV). Par exemple :

Le développement et le perfectionnement de constitutions efficaces, ainsi que la garantie que l'IA les respecte fidèlement dans divers contextes, restent des domaines de recherche actifs au sein d'organisations telles que Google AI et l'AI Safety Institute. Des outils comme Ultralytics HUB facilitent l'entraînement et le déploiement de divers modèles d'IA, et l'intégration de principes similaires à l'IA constitutionnelle deviendra de plus en plus importante pour garantir un déploiement de modèles responsable.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers