掌握人工智能安全的核心支柱,包括目标一致性和稳健性。探索如何通过Ultralytics 部署可靠模型,确保人工智能的可靠性。
人工智能安全是一个跨学科领域,致力于确保 人工智能(AI)系统 能够可靠、可预测且有益地运行。与保护系统免受外部攻击的网络安全不同, 人工智能安全关注系统设计与运行本身固有的风险。这包括防范 因目标错位、新型环境下的鲁棒性不足或深度学习(DL)泛化失败 所引发的意外后果。 随着模型 自主性增强,诸如 人类兼容人工智能中心等机构的研究人员正致力于确保这些技术 符合人类意图与安全标准。
构建安全系统需要解决若干技术难题,这些挑战远非简单的准确率指标所能涵盖。这些支柱确保机器学习(ML)模型即使在复杂的现实场景中部署,也能始终处于可控状态。
在高风险领域,人工智能安全至关重要,因为算法失效可能导致人身伤害或重大经济损失。
计算机视觉中最基础的安全机制之一是使用置信度阈值。通过在推理过程中过滤掉低概率预测,开发者可防止系统基于薄弱信息采取行动。
以下示例演示了如何Ultralytics 应用安全过滤器,确保仅处理可靠的检测结果。
from ultralytics import YOLO
# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")
# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)
# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")
尽管这些术语常被互换使用,但它们分别涉及负责任人工智能的不同方面。
随着行业向通用人工智能(AGI)迈进,安全研究正变得日益关键。企业可借助Ultralytics 管理数据集并监督模型部署,确保其人工智能解决方案在整个生命周期内保持稳健性、透明度,并符合安全标准。