憲法AIが、モデルを事前に定義された原則と人間の価値観に合わせることによって、倫理的で安全かつ偏りのないAI出力をどのように保証するかをご覧ください。
Constitutional AI(CAI)は、Anthropicによって開発されたAIモデル、特に大規模言語モデル(LLM)を、特定の規則または原則(「憲法」として知られる)に沿ってトレーニングする方法です。CAIの主な目標は、広範な人間のフィードバックを必要とせずに、AIシステムを有用、無害、かつより制御可能にすることです。人間が有害な出力を常にラベル付けする代わりに、AIは憲法の指針となる原則に基づいて、自身の応答を批判し、修正することを学習します。このアプローチは、有害なコンテンツの生成を防ぎ、アルゴリズムバイアスを軽減するなど、AI倫理における主要な課題に対処するのに役立ちます。
CAIトレーニングプロセスは通常、主に2つのフェーズで構成されます。
CAIの重要な現実世界の例は、AnthropicのAIアシスタントであるClaudeでの実装です。その憲法は、有害な指示を生成したり、違法行為に関与したり、有害な方法でコミュニケーションしたりすることを避け、常に役立つように指示しています。もう1つのアプリケーションは、自動コンテンツモデレーションです。ここでは、CAI駆動のモデルを使用して、倫理的ガイドラインの事前定義されたセットに従って、オンラインでヘイトスピーチや誤った情報を特定してフラグを立てることができます。
CAIを類似の用語と区別することが重要です。
現在、Constitutional AIは主に、対話生成やテキスト要約などのタスクのためにLLMに適用されています。ただし、その基本原則は、コンピュータビジョン(CV)を含む他のAIドメインにも拡張できる可能性があります。例えば:
効果的な憲法の開発と改良、およびAIが多様な状況下で忠実に憲法を遵守することを保証することは、Google AIやAI Safety Instituteなどの組織内で活発な研究分野となっています。Ultralytics HUBのようなツールは、さまざまなAIモデルのトレーニングとデプロイを促進し、憲法AIと同様の原則を組み込むことは、責任あるモデルのデプロイを確実にするためにますます重要になります。