了解宪法人工智能如何通过使模型与预定义的原则和人类价值观保持一致,来确保符合道德、安全且公正的人工智能输出。
宪法人工智能(CAI)是一种培训方法,旨在调整 人工智能(AI)系统 与人类价值观相一致。 训练过程。与严重依赖人类对每项特定输出进行反馈的传统方法不同,CAI 使模型能够 模型能够根据乐于助人、诚实和无害等原则来批评和修正自己的行为。这种 这种方法通过以下方式满足人工智能安全日益增长的需求 使调整过程自动化,从而有可能训练出遵守道德准则的有能力的助手 无需大量人力监督。通过明确的 开发人员可以减少 算法偏差,防止生成有毒或不安全的内容。 有毒或不安全的内容。
宪法人工智能的工作流程通常包括两个不同的阶段,超越了标准的 监督学习。这两个阶段允许 模型在宪法的指导下从自身的反馈中学习,而不是仅仅从外部的人类标签中学习。
将 CAI 与 从人类反馈中强化学习(RLHF),因为它们代表了不同的调整策略。
虽然宪法人工智能起源于 大型语言模型(LLM)的背景下发展起来的。 等组织开发的 Anthropic等组织开发的大型语言模型(LLM)的背景下,其原则正被越来越多地 用于更广泛的机器学习任务,包括 计算机视觉 (CV)。
虽然完整的人工智能宪法训练涉及复杂的反馈回路,但开发人员可以在训练过程中应用 "宪法检查 "的概念。 在 推理过程中应用 "宪法检查 "概念,根据安全 策略过滤输出。下面的示例演示了使用 YOLO11来detect 物体,并应用 假设的安全规则来过滤低置信度的检测,从而确保高可靠性。
from ultralytics import YOLO
# Load the YOLO11 model (latest stable Ultralytics release)
model = YOLO("yolo11n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
随着模型向 人工通用智能(AGI)的发展,像宪法人工智能(Constitutional AI)这样稳健的对齐策略的重要性与日俱增。这些方法对于 这些方法对于遵守新兴标准至关重要,如 NIST 人工智能安全研究所等机构制定的新兴标准。
Ultralytics 正在积极研究如何将安全和对齐功能集成到模型生命周期中。即将推出的 即将推出的YOLO26架构(目前正在研发中)旨在将先进的可解释性功能纳入 与这些安全目标相一致的高级可解释性功能,确保 模型部署安全高效 跨所有行业。此外,统一的Ultralytics 平台将提供管理数据治理和监控模型行为的工具,从而促进创建人工智能。 此外,统一的 Ultralytics 平台还将提供管理数据治理和监控模型行为的工具,促进创建负责任的人工智能系统。