了解如何通过策略、工具和真实案例来识别、缓解和预防 AI 系统中的偏见,从而实现合乎道德的 AI 开发。
人工智能中的偏见指的是嵌入在人工智能系统中的系统性错误、偏见或不合理的假设,这些因素导致不公平、不平等或歧视性的结果。与不可预测的随机错误不同,偏见表现为结果持续向特定群体倾斜或排斥特定群体,通常基于种族、性别、年龄或社会经济地位等敏感特征。 随着机器学习(ML)模型在医疗诊断、金融贷款等高风险场景中的广泛部署,识别并缓解此类偏见已成为人工智能伦理与安全协议的核心组成部分。
偏见很少是故意引入的;相反,它会渗透到开发生命周期的各个阶段,往往反映了历史上的不平等或数据收集中的缺陷。
人工智能中的偏见可能产生深远影响,危及个人权利与安全。
解决偏见问题需要在模型训练和部署的整个流程中采取主动措施。
区分"人工智能中的偏见"与"偏见"一词在其他技术领域的用法至关重要。
为detect ,开发者常在代表少数群体的特定"挑战"数据集上测试模型。下例演示了如何使用YOLO26在特定子数据集上验证性能。
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on a specific dataset split designed to test
# performance on an underrepresented environment (e.g., 'night_time.yaml')
metrics = model.val(data="night_time_data.yaml")
# Analyze specific metrics to check for performance degradation
print(f"mAP50-95 on challenge set: {metrics.box.map}")
诸如美国国家标准与技术研究院(NIST)人工智能风险管理框架等标准 ,以及欧盟《人工智能法案》等法规,正日益强制要求此类偏见审计,以确保负责任的人工智能开发。