敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024
词汇表

宪法人工智能

了解宪法人工智能如何通过使模型与预定义的原则和人类价值观保持一致,来确保符合道德、安全且公正的人工智能输出。

宪法式人工智能 (Constitutional AI, CAI) 是 Anthropic 开发的一种训练 AI 模型的方法,特别是大型语言模型 (LLM),使其符合一组特定的规则或原则,称为“宪法”。CAI 的主要目标是使 AI 系统变得有帮助、无害且更易于控制,而无需大量的人工反馈。AI 不是让人类不断地标记有害输出,而是学会根据其宪法中的指导原则来批判和修改自己的响应。这种方法有助于解决AI 伦理中的关键挑战,例如防止生成有害内容和减少算法偏见

宪法AI如何运作

CAI 训练过程通常包括两个主要阶段:

  1. 监督学习阶段: 首先,提示基础模型生成响应。然后,要求同一模型根据章程批判其自身的响应,并重写这些响应,以更好地符合其原则。这将创建一个改进的、符合章程的示例的新数据集。这种自我批判机制由章程指导,章程可以是一个简单的规则列表,也可以借鉴复杂的来源,如《联合国人权宣言》
  2. 强化学习阶段: 然后使用强化学习 (RL)对模型进行微调。在此阶段,AI 生成成对的响应,并且偏好模型(根据第一阶段的自我批评数据进行训练)选择最符合章程的响应。此过程教会 AI 从本质上更喜欢与其核心原则一致的输出。

CAI 的一个关键的现实世界例子是它在 Anthropic 的 AI 助手 Claude 中的实现。它的章程指导它避免生成有害指令,拒绝从事非法活动,并以无毒的方式进行交流,同时保持乐于助人。另一个应用是在自动化内容审核中,其中可以使用 CAI 驱动的模型来根据预定义的道德准则识别和标记在线的仇恨言论或虚假信息。

宪法式人工智能与相关概念

区分 CAI 与类似术语非常重要:

  • 基于人类反馈的强化学习 (RLHF): RLHF 依赖于人类提供反馈并对 AI 生成的响应进行排名,这既耗时又难以扩展。CAI 用 AI 驱动的反馈循环取代了人类反馈循环,其中模型的章程指导反馈。这使得对齐过程更具可扩展性和一致性。
  • AI 伦理 这是一个广泛的领域,涉及创建负责任的 AI 的道德原则和技术问题。宪法 AI 可以被看作是通过将明确的伦理规则直接嵌入到模型的训练过程中来实施 AI 伦理的实用框架。

应用与未来潜力

目前,宪法 AI 主要应用于 LLM,用于对话生成和文本摘要等任务。但是,其基本原则可能会扩展到其他 AI 领域,包括计算机视觉 (CV)。例如:

有效章程的制定和完善,以及确保 AI 在不同环境中忠实地遵守这些章程,仍然是 Google AIAI Safety Institute 等组织积极研究的领域。诸如 Ultralytics HUB 之类的工具促进了各种 AI 模型的训练和部署,而结合类似于宪法 AI 的原则对于确保负责任的模型部署将变得越来越重要。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板