人工智能中的偏见
通过合乎道德的人工智能开发战略、工具和真实案例,了解如何识别、减轻和防止人工智能系统中的偏见。
人工智能中的偏见是指人工智能(AI)系统输出中的系统性错误或偏见。这些偏见会导致不公平、不公正或歧视性的结果,通常会使特定群体或人群处于不利地位。随着人工智能系统越来越多地融入医疗保健和金融等关键领域,理解和减少偏见已成为负责任的人工智能发展的核心挑战。偏差并不是偶尔出现的随机错误;它是一种可重复的偏差结果模式,反映了数据或算法中的潜在缺陷。
Ai 偏差的来源
在整个模型开发生命周期中,人工智能偏差可能来自多个方面。最常见的来源包括
- 数据集偏差:这是人工智能偏差最普遍的来源。当训练数据不能代表真实世界或目标人群时,就会出现这种情况。例如,主要根据男性主导行业的历史数据训练的招聘工具数据集可能会偏向于男性候选人。这可能表现为抽样偏差(数据不是随机收集的)、选择偏差(数据不能代表环境)或测量偏差(数据标签不一致)。创建平衡且多样化的数据集是至关重要的第一步。
- 算法偏差:这种偏差来自人工智能算法本身。有些算法可能会固有地放大数据中存在的微小偏差,或者其设计可能会优先考虑某些特征而非其他特征,从而造成不公平的结果。例如,损失函数的选择会影响模型如何惩罚不同子群的错误。
- 人类偏见:人工智能系统的开发者、数据注释者和用户可能会无意中将自己的认知偏见引入人工智能模型。这些个人和社会偏见会影响问题的框架设计、数据的收集和注释,以及对模型结果的解释。
真实案例
- 面部识别技术:许多商用人脸识别系统在识别代表性不足的人口群体(尤其是女性和有色人种)时,错误率一直较高。美国国家标准与技术研究院(NIST)等机构的研究已经证明了这些差异,而这些差异往往源于以白人、男性面孔为主的训练数据集。
- 自动招聘工具:一个众所周知的例子是亚马逊开发的一个实验性招聘工具,发现该工具会惩罚含有 "女性 "一词的简历,并降低两所全女子学院毕业生的等级。该模型从 10 年间提交的历史招聘数据中了解到这些偏见,这些数据反映了男性在整个科技行业的主导地位。亚马逊最终放弃了这个项目。
Ai Vs.相关术语
必须将人工智能偏见与相关概念区分开来:
- 算法偏差与人工智能偏差: 算法偏差是一种特定类型的人工智能偏差,源于模型的架构或数学表述。人工智能偏差是一个更广泛的总称,也包括来自数据和人为干预的偏差。
- 数据集偏差与人工智能偏差: 数据集偏差是造成人工智能偏差的主要原因。如果算法是在不平衡或带有偏见的数据上训练出来的,那么在设计上完全公平的算法仍然会产生带有偏见的结果。
- 人工智能的公平性与人工智能的偏见: 人工智能的公平性是一个致力于解决人工智能偏见的领域。偏见是问题所在,而公平则涉及用于定义、衡量和促进公平结果的原则、指标和技术。
解决 Ai 偏差问题
减少人工智能偏见是一个持续的过程,需要在整个人工智能开发生命周期中采取多方面的方法:
Ultralytics HUB等平台提供了各种工具,通过仔细管理数据集、促进自定义模型训练和监控Ultralytics YOLO模型性能,支持开发更公平的人工智能系统。在ACM FAccT 会议等论坛上经常讨论的建立公平意识和嵌入公平原则对于创造公平造福社会的技术至关重要。