Découvrez comment l'IA constitutionnelle garantit des résultats d'IA éthiques, sûrs et non biaisés en alignant les modèles sur des principes prédéfinis et des valeurs humaines.
L'IA constitutionnelle (CAI) est une méthodologie de formation spécialisée conçue pour aligner les systèmes d'intelligence artificielle (IA) sur les valeurs humaines en intégrant un ensemble prédéfini de principes, une « constitution », directement dans le processus d'apprentissage . Contrairement aux méthodes traditionnelles qui s'appuient fortement sur le retour d'information humain pour chaque résultat spécifique, la CAI permet à un modèle de critiquer et de réviser son propre comportement sur la base de règles explicites telles que l'utilité, l'honnêteté et l'innocuité. Cette approche répond aux défis de scalabilité de la sécurité de l'IA en automatisant le processus d'alignement, permettant ainsi aux développeurs de former des assistants compétents qui respectent les directives éthiques sans exposer les annotateurs humains à des contenus toxiques ou perturbants lors de l'étiquetage des données.
Le flux de travail de l'IA constitutionnelle va généralement au-delà de l'apprentissage supervisé standard en intégrant une boucle d'auto-amélioration. Ce processus se divise généralement en deux phases distinctes qui affinent les capacités décisionnelles du modèle :
Il est important de distinguer le CAI du apprentissage par renforcement à partir du retour d'information humain (RLHF), car ils représentent des stratégies d'alignement différentes.
Alors que l'IA constitutionnelle trouve son origine dans le contexte des grands modèles linguistiques (LLM) développés par des organisations telles que Anthropic, ses principes sont de plus en plus pertinents pour des tâches d'apprentissage automatique plus larges, notamment la vision par ordinateur (CV).
Bien que la formation complète à l'IA constitutionnelle implique des boucles de rétroaction complexes, les développeurs peuvent appliquer le concept de « contrôles constitutionnels » pendant l' inférence afin de filtrer les résultats en fonction des politiques de sécurité. L'exemple suivant montre comment utiliser YOLO26 pour detect et appliquer une règle de sécurité afin de filtrer les détections peu fiables, imitant ainsi une constitution de fiabilité.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://docs.ultralytics.com/usage/python/")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Au fur et à mesure que les modèles évoluent vers Artificial General Intelligence (AGI), l'importance de stratégies d'alignement robustes telles que l'IA constitutionnelle s'accroît. Ces méthodes sont essentielles pour pour se conformer aux normes émergentes d'organismes tels que le NIST AI Safety Institute.
Ultralytics propose des outils pour gérer la gouvernance des données et la surveillance des modèles, facilitant ainsi la création de systèmes d'IA responsables. En intégrant ces considérations éthiques dans le cycle de vie du développement de l'IA, de la collecte des données au déploiement des modèles, les organisations peuvent atténuer les risques et s'assurer que leurs technologies contribuent positivement à la société.