Découvrez comment l'IA constitutionnelle garantit des résultats d'IA éthiques, sûrs et non biaisés en alignant les modèles sur des principes prédéfinis et des valeurs humaines.
L'IA constitutionnelle (CAI) est une méthodologie de formation conçue pour aligner les systèmes d'intelligence artificielle (IA) sur les besoins de la société. les systèmes d'intelligence artificielle (IA) avec les valeurs humaines en intégrant un ensemble prédéfini de règles, ou une "constitution", directement dans le processus de formation. processus de formation. Contrairement aux approches traditionnelles qui dépendent fortement du retour d'information humain pour chaque résultat spécifique, l'IAO permet à un modèle de critiquer et de réviser ses propres règles. modèle de critiquer et de réviser son propre comportement sur la base de principes tels que la serviabilité, l'honnêteté et l'innocuité. Cette approche Cette approche répond au besoin croissant de sécurité de l'IA en en automatisant le processus d'alignement, ce qui permet de former des assistants capables de respecter les directives éthiques sans nécessiter une quantité ingérable de supervision humaine. En régissant le comportement du modèle par des instructions explicites, les développeurs peuvent réduire les biais algorithmiques et empêcher la génération de contenus contenu toxique ou dangereux.
Le flux de travail de l'IA constitutionnelle comprend généralement deux phases distinctes qui vont au-delà de l'apprentissage supervisé standard. l 'apprentissage supervisé standard. Ces phases permettent au modèle Ces phases permettent au modèle d'apprendre à partir de son propre retour d'information, guidé par la constitution, plutôt qu'uniquement à partir d'étiquettes humaines externes.
Il est essentiel de distinguer l'IPE de l'apprentissage par renforcement à partir du feedback humain (RLHF), car ils représentent des stratégies d'alignement différentes.
L'IA constitutionnelle est née dans le contexte des grands modèles de langage (LLM) développés par des organisations telles que Anthropicses principes sont de plus en plus adaptés pour des tâches plus larges d'apprentissage automatique, y compris la vision artificielle (CV).
Bien que la formation complète à l'IA constitutionnelle implique des boucles de rétroaction complexes, les développeurs peuvent appliquer le concept de "contrôles constitutionnels" au cours de la formation. "contrôles constitutionnels" pendant l'inférence l'inférence pour filtrer les résultats en fonction des de sécurité. L'exemple suivant illustre l'utilisation de YOLO11 pour detect objets et l'application d'une règle de sécurité hypothétique pour filtrer les détections à faible probabilité, garantissant ainsi une grande fiabilité.
from ultralytics import YOLO
# Load the YOLO11 model (latest stable Ultralytics release)
model = YOLO("yolo11n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Au fur et à mesure que les modèles évoluent vers Artificial General Intelligence (AGI), l'importance de stratégies d'alignement robustes telles que l'IA constitutionnelle s'accroît. Ces méthodes sont essentielles pour pour se conformer aux normes émergentes d'organismes tels que le NIST AI Safety Institute.
Ultralytics étudie activement la manière d'intégrer les caractéristiques de sécurité et d'alignement dans le cycle de vie du modèle. L'architecture YOLO26, actuellement en phase de R&D, vise à intégrer des fonctions d'interprétabilité d'interprétabilité qui s'alignent sur ces objectifs de sécurité, garantissant que que le déploiement des modèles reste sûr et efficace dans tous les secteurs d'activité. En outre, la plateforme unifiée Ultralytics fournira des outils pour gérer la gouvernance des données et surveiller le comportement des modèles, facilitant ainsi la création de systèmes d'IA responsables. surveiller le comportement des modèles, facilitant ainsi la création de systèmes d'IA responsables.