了解 AI 安全,这是防止 AI 系统造成意外伤害的重要领域。了解其关键支柱、实际应用以及在负责任的 AI 中的作用。
人工智能安全是 人工智能 (AI)的一个专门领域,其重点是 确保人工智能系统可靠、可预测地运行,并且不会造成意外伤害。随着 深度学习 (DL)模型变得更加自主 并集成到关键基础设施中,系统故障的潜在后果也会大大增加。人工智能安全的 人工智能安全的主要目标是识别、分析和降低因技术故障、意外行为或系统与系统之间的错位而产生的风险。 行为或人工智能目标与人类价值观不一致所产生的风险。这门学科包含广泛的 实践,从严格的模型测试到 开发系统行为的数学保证。
为了构建值得信赖的系统,研究人员和工程师重点关注以下几个基本支柱,以确保 机器学习 (ML)模型在不同条件下正确运行 在不同条件下正常运行。
人工智能的安全性不仅仅是理论上的,它还是在汽车和医疗保健领域部署人工智能的关键要求。 在汽车和医疗保健领域部署人工智能的关键要求。
提高部署安全性的一个基本方法是实施严格的置信阈值。通过忽略 低置信度预测,开发人员就能防止人工智能代理根据薄弱或嘈杂的数据采取行动。
下面的示例演示了如何使用 Ultralytics YOLO11模型过滤预测,确保只处理高确定性 检测进行处理。
from ultralytics import YOLO
# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")
# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)
# Process only the safe, high-confidence detections
for result in results:
print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")
虽然这些术语经常互换使用,但它们涉及负责任的人工智能发展的不同方面。 负责任的人工智能发展。
框架,如 NIST 人工智能风险管理框架 等框架为企业应对安全和道德风险提供了指导。随着模型向 随着人工智能(AGI)模型的发展,生命未来研究所等机构的安全研究人员与行业开发人员之间的合作变得越来越重要,以确保安全。 未来生命研究所等机构的安全研究人员与行业开发人员之间的合作变得越来越重要,以确保技术始终造福于人类。 确保技术始终造福于人类。