Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

IA constitutionnelle

Découvrez comment l'IA constitutionnelle garantit des résultats d'IA éthiques, sûrs et non biaisés en alignant les modèles sur des principes prédéfinis et des valeurs humaines.

L'IA constitutionnelle (CAI) est une méthodologie de formation spécialisée conçue pour aligner les systèmes d'intelligence artificielle (IA) sur les valeurs humaines en intégrant un ensemble prédéfini de principes, une « constitution », directement dans le processus d'apprentissage . Contrairement aux méthodes traditionnelles qui s'appuient fortement sur le retour d'information humain pour chaque résultat spécifique, la CAI permet à un modèle de critiquer et de réviser son propre comportement sur la base de règles explicites telles que l'utilité, l'honnêteté et l'innocuité. Cette approche répond aux défis de scalabilité de la sécurité de l'IA en automatisant le processus d'alignement, permettant ainsi aux développeurs de former des assistants compétents qui respectent les directives éthiques sans exposer les annotateurs humains à des contenus toxiques ou perturbants lors de l'étiquetage des données.

Le mécanisme : apprentissage supervisé et RLAIF

Le flux de travail de l'IA constitutionnelle va généralement au-delà de l'apprentissage supervisé standard en intégrant une boucle d'auto-amélioration. Ce processus se divise généralement en deux phases distinctes qui affinent les capacités décisionnelles du modèle :

  1. Apprentissage supervisé avec autocritique : le modèle génère des réponses à des invites, puis critique ses propres résultats en fonction des principes énoncés dans sa constitution. Si une réponse enfreint une règle, par exemple en montrant un biais algorithmique, le modèle la révise. Cela génère un ensemble de données de haute qualité contenant des exemples conformes pour la poursuite de la formation du modèle.
  2. Apprentissage par renforcement à partir du retour d'information de l'IA (RLAIF) : à ce stade, le modèle évalue des paires de réponses et sélectionne celle qui respecte le mieux la constitution. Ces données de préférence sont utilisées pour entraîner un modèle de préférence, qui guide ensuite le modèle principal à l'aide de l' apprentissage par renforcement. Cela permet de remplacer efficacement les étiquettes de préférence humaines par celles générées par l'IA, ce qui rationalise le processus de réglage fin.

IA constitutionnelle contre RLHF

Il est important de distinguer le CAI du apprentissage par renforcement à partir du retour d'information humain (RLHF), car ils représentent des stratégies d'alignement différentes.

  • RLHF : s'appuie sur des annotateurs humains pour évaluer manuellement les résultats des modèles. Bien qu'efficace, ce processus est gourmand en ressources et difficile à mettre en œuvre à grande échelle. Il peut également être psychologiquement éprouvant pour les travailleurs qui doivent examiner des contenus préjudiciables afin de les signaler comme dangereux.
  • IA constitutionnelle : utilise le RLAIF pour automatiser la boucle de rétroaction. En définissant explicitement la « constitution », les développeurs bénéficient d'une plus grande transparence dans le comportement de l'IA. Les règles qui régissent les décisions sont rédigées dans un langage naturel clair plutôt que d'être implicitement apprises à partir de milliers d'évaluations humaines opaques . Cela améliore l'évolutivité et la cohérence.

Applications concrètes

Alors que l'IA constitutionnelle trouve son origine dans le contexte des grands modèles linguistiques (LLM) développés par des organisations telles que Anthropic, ses principes sont de plus en plus pertinents pour des tâches d'apprentissage automatique plus larges, notamment la vision par ordinateur (CV).

  • Chatbots éthiques : l'IAU est largement utilisée pour former des agents conversationnels qui refusent de générer des discours haineux, des instructions pour des actes illégaux ou des contenus politiquement biaisés. Cela garantit que les outils d'IA générative restent sûrs pour un déploiement public et respectent les réglementations telles que la loi européenne sur l'IA.
  • Systèmes de vision critiques pour la sécurité : Dans les véhicules autonomes, une approche approche "constitutionnelle" peut définir des règles hiérarchiques pour la prise de décision. Par exemple, une règle stipulant "la sécurité humaine prime sur l'efficacité du trafic" peut guider le modèle lors de l'analyse de scènes routières complexes, de la route, en veillant à ce que les résultats de la détection d'objets soient les résultats de la détection d'objets soient interprétés en donnant la priorité à la sécurité.

Mise en œuvre des contrôles de politique dans Vision AI

Bien que la formation complète à l'IA constitutionnelle implique des boucles de rétroaction complexes, les développeurs peuvent appliquer le concept de « contrôles constitutionnels » pendant l' inférence afin de filtrer les résultats en fonction des politiques de sécurité. L'exemple suivant montre comment utiliser YOLO26 pour detect et appliquer une règle de sécurité afin de filtrer les détections peu fiables, imitant ainsi une constitution de fiabilité.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://docs.ultralytics.com/usage/python/")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

L'avenir de l'alignement

Au fur et à mesure que les modèles évoluent vers Artificial General Intelligence (AGI), l'importance de stratégies d'alignement robustes telles que l'IA constitutionnelle s'accroît. Ces méthodes sont essentielles pour pour se conformer aux normes émergentes d'organismes tels que le NIST AI Safety Institute.

Ultralytics propose des outils pour gérer la gouvernance des données et la surveillance des modèles, facilitant ainsi la création de systèmes d'IA responsables. En intégrant ces considérations éthiques dans le cycle de vie du développement de l'IA, de la collecte des données au déploiement des modèles, les organisations peuvent atténuer les risques et s'assurer que leurs technologies contribuent positivement à la société.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant