憲法AIが、モデルを事前に定義された原則と人間の価値観に合わせることによって、倫理的で安全かつ偏りのないAI出力をどのように保証するかをご覧ください。
コンスティテューショナルAI(CAI)とは、人工知能(AI)システムを調整するために考案されたトレーニング方法である。 人工知能(AI)システム 人間の価値観に合致させるために考案されたトレーニング手法である。 学習プロセスである。特定の出力ごとに人間のフィードバックに大きく依存する従来のアプローチとは異なり、CAIは、モデルが自己を批評し、修正することを可能にする。 CAIは、有用性、誠実さ、無害性といった原則に基づいて、モデル自身が自らの行動を批評し、修正することを可能にする。このアプローチは このアプローチは アライメント・プロセスを自動化することで、倫理的ガイドラインを尊重する有能なアシスタントを訓練することが可能になる。 管理しきれないほどの人間の監視を必要とすることなく。明示的な指示によってモデルの行動を制御することで 開発者はアルゴリズムの偏りを減らし アルゴリズムのバイアスを減らし 有害または安全でないコンテンツの生成を防ぐことができます。
コンスティテューショナルAIのワークフローは、標準的な教師あり学習を超える、2つの異なるフェーズを含む。 教師あり学習これらのフェーズでは モデルは、外部の人間のラベルのみからではなく、憲法によって導かれる自身のフィードバックから学習する。
CAIと 人間のフィードバックからの強化学習(RLHF)とを区別することは極めて重要である。
コンスティテューショナルAIの起源は 大規模言語モデル(LLM)は のような組織 Anthropicその原理は を含む、より広範な機械学習タスクに適応されつつある。 コンピュータビジョン(CV)。
完全な憲法AIのトレーニングは複雑なフィードバックループを伴うが、開発者は「憲法チェック」の概念を応用することができる。 「を適用することができる。 を適用することができる。 ポリシーに基づいて出力をフィルタリングすることができる。以下の例は YOLO11を使って物体をdetect し 仮想的な安全ルールを適用して、信頼性の低い検出をフィルタリングし、高い信頼性を確保しています。
from ultralytics import YOLO
# Load the YOLO11 model (latest stable Ultralytics release)
model = YOLO("yolo11n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
モデルが 人工知能(AGI)に向けてモデルが進化するにつれて、Constitutional AIのようなロバストなアライメント戦略の重要性が増している。これらの方法は このような方法は、NIST AI Safety Instituteのような団体による新たな標準に準拠するために不可欠である。 NIST AIセーフティ・インスティテュート
Ultralytics 、安全性とアライメント機能をモデルのライフサイクルに統合する方法を積極的に研究しています。現在研究開発中の 現在研究開発中の次期YOLO26アーキテクチャは、これらの安全目標に沿った高度な解釈可能性機能 機能を組み込むことを目指しています。 モデルの展開が安全かつ効率的であり続けることを保証します。 を確保します。さらに、統一されたUltralytics プラットフォームは、データガバナンスを管理し、モデルの動作を監視するツールを提供します。 モデルの動作を監視するツールを提供し、責任あるAIシステムの構築を促進します。


