算法偏差
了解算法偏见、其来源和真实案例。学习减少偏见和建立公平、合乎道德的人工智能系统的策略。
算法偏差是指人工智能(AI)系统中出现的系统性、可重复的错误,这些错误会导致不公平的结果,例如任意将某个用户群体置于其他用户群体之上。这些偏见可能来自不同方面,包括有缺陷的数据或机器学习(ML)算法本身的设计。解决这一问题是开发负责任和合乎道德的人工智能的关键组成部分,可确保技术公平地造福社会。不加控制的算法偏差所造成的后果可能包括延续社会不平等,以及在医疗保健和金融等关键应用中做出不正确的预测。
算法偏差的来源
算法偏见并不是一个单一的问题;它源自人工智能开发生命周期中的多个来源,而且往往相互关联。了解这些根源是缓解问题的第一步。
- 数据偏差:这是最常见的原因,即训练数据不能代表真实世界。如果一个数据集包含的某一人口群体的图像多于另一人口群体,那么在该数据集上训练出来的模型很可能在多数群体中表现更好。这是数据集偏差的一种形式,直接导致了算法结果的偏差。
- 人为偏见:人工智能系统的开发者、数据标注者和最终用户可能会无意中引入自己的认知偏见。这可能体现在如何收集和注释数据、哪些特征被认为是重要的以及如何解释模型的输出等方面。
- 算法设计:算法的选择和优化方式也会产生偏差。例如,一种旨在最大限度提高整体准确性的算法可能会通过牺牲对代表性不足群体的性能来达到这一目的,这就是偏差-方差权衡的一个典型例子。
算法偏差的真实案例
算法偏差的影响是有目共睹的,在现实世界的许多应用中都能观察到。
- 面部识别系统:早期的面部识别技术对女性和肤色较深的人的识别准确率明显较低。麻省理工学院等机构的研究表明,这些系统是在绝大多数由白人男性图像组成的数据集上训练出来的,导致对其他人口统计学特征的识别效果不佳,并引起了人们对其在执法中使用的严重担忧。
- 贷款审批算法:在金融领域,人工智能模型被用于预测信用度。然而,历史贷款数据往往反映了过去的社会偏见。根据这些数据训练出来的算法可能会将某些邮政编码或人口统计标记与较高风险联系起来,从而不公平地拒绝向来自少数族裔社区的合格申请人发放贷款,这种做法被称为数字红线(digital redlining)。
算法偏差与数据集偏差
算法偏差和数据集偏差虽然密切相关,但必须加以区分。
- 数据集偏差特指用于训练的数据中存在的问题,如缺乏多样性或标签不准确。这是一个主要原因。
- 算法偏差是更广泛的影响。它描述了人工智能模型的偏差行为。算法偏差通常是由数据集偏差造成的,但算法自身的逻辑、优化功能或算法与更大系统的集成方式也可能导致或放大算法偏差。如果算法的内部运作偏向于某些结果,那么即使数据完全平衡,算法也会出现偏差。
缓解策略
解决算法偏见问题需要在整个人工智能生命周期中采取积极主动的多方面方法:
- 公平性指标:将公平性指标与准确性等传统性能指标一起纳入模型训练和验证过程。
- 算法审计:定期审核算法在不同子群中的偏差结果。人工智能公平 360和Fairlearn工具包等工具可帮助检测和减少偏见。
- 减少偏差技术:采用旨在调整算法的技术,如重新权衡数据点、修改学习限制或对模型输出进行后处理,以确保结果更加公平。
- 可解释的人工智能(XAI):使用 XAI 方法了解算法做出某些决定的原因,帮助识别其逻辑中隐藏的偏见。提高人工智能的透明度是关键。
- 多元化团队和测试:让不同的团队参与开发过程,并对具有代表性的用户群体进行全面测试,以发现潜在的偏见。
- 法规意识:随时了解不断发展的法规,如《欧盟人工智能法案》,其中包括与偏见和公平性相关的规定。
- 持续模型监控:监控已部署的模型,以发现性能下降或随着时间推移出现的偏差。
通过了解算法偏见的细微差别,并积极努力通过精心设计、严格测试以及遵守人工智能公平性和人工智能伦理原则来减少算法偏见,开发人员可以创造出更可靠、更公平、更有益的人工智能应用。人工智能伙伴关系(Partnership on AI)和算法正义联盟(Algorithmic Justice League)等组织倡导负责任的人工智能开发。Ultralytics HUB等平台和Ultralytics YOLO等模型提供了支持谨慎模型开发和评估的框架,考虑了数据隐私等因素,有助于创建更公平的系统。ACM 公平性、责任和透明度(FAccT)会议是该领域研究的主要场所。