术语表

人工智能的公平性

用合乎道德、不带偏见的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、战略和Ultralytics YOLO 。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能的公平性是人工智能(AI)的一个关键领域,其重点是确保人工智能系统的运行不会对特定个人或群体造成或强化不公平的结果。它涉及人工智能模型的开发和应用,以避免基于种族、性别、年龄或宗教等敏感特征的歧视。随着人工智能越来越多地影响从金融到医疗保健领域的重要决策,嵌入公平性对于道德实践、监管合规以及建立社会对这些强大技术的信任至关重要。

了解人工智能的公平性

人工智能领域的公平定义非常复杂,没有一个普遍接受的定义。相反,它涉及多种数学标准和道德原则,旨在防止不公平待遇。一个核心挑战是识别和减轻人工智能中的偏差,这种偏差有多种来源。当训练数据不能准确代表现实世界的多样性时,就会出现数据 集偏差,这通常反映了历史上的社会偏见。算法偏差可能源于模型设计或优化过程本身。公平性有不同的数学定义,如人口均等(结果独立于敏感属性)和机会均等(不同群体的真实阳性率相同)。然而,正如该领域的研究(如ACM FAccT 论文集)所强调的那样,同时实现多个公平性标准在数学上是不可能的。开发人员必须仔细考虑哪些公平性定义最适合其特定的应用环境。

相关性和重要性

人工智能的公平性因其潜在的社会影响而意义重大。不公平的人工智能系统可能会在招聘、贷款审批、刑事司法和医学影像分析等关键领域导致歧视性结果,使某些群体处于不利地位并限制机会。确保公平不仅是道德的要求,也越来越成为法律的需要,NIST 人工智能风险管理框架等框架为负责任的开发提供了指导。优先考虑公平性有助于防止伤害,促进社会公平,并为广泛、负责任地采用人工智能建立必要的信任。这与更广泛的人工智能伦理原则相一致,后者也涵盖了人工智能的问责制、透明度数据隐私

实际应用

在许多人工智能应用中,对公平性的考虑至关重要。这里有两个例子:

  1. 面部识别系统早期的人脸识别技术在不同的人口群体中显示出明显的准确性差异,尤其是对肤色较深的人和女性的识别效果较差(美国国家标准与技术研究院的研究强调了这些问题)。算法正义联盟(Algorithmic Justice League)等组织提高了人们的认识,促使人们努力创建更多样化的训练数据集,并开发不易出现此类偏差的算法,力求在所有群体中实现公平的性能。
  2. 自动化招聘工具:招聘中使用的人工智能工具会无意中学习并延续历史招聘数据中存在的偏见,可能会过滤掉代表人数不足群体中的合格候选人。应用公平性技术包括审核算法中的偏见,使用方法调整预测,并确保用于候选人评估的标准具有相关性和非歧视性。这对于促进就业机会平等至关重要,也是人力资源计算机视觉等领域讨论的一个关键方面。

区分公平与相关概念

虽然相关,但人工智能中的公平与其他几个概念不同:

  • 人工智能伦理这是一个更广泛的领域,包括公平性、问责制、透明度、隐私、安全性以及人工智能的整体社会影响。公平性是人工智能伦理更大范围内的一个关键组成部分。
  • 人工智能中的偏差/算法偏差偏差是指人工智能系统或其数据中导致不公平结果的系统性错误或偏见。公平是识别和减少这些偏见的目标。了解人工智能偏差是实现公平的第一步。
  • 可解释的人工智能(XAI)XAI 的重点是让人类理解人工智能模型的决策过程。虽然与公平性不同,但 XAI 技术可以成为诊断模型为何会产生不公平结果的重要工具,从而支持公平性干预措施。

实现公平

要实现人工智能的公平性,需要在整个人工智能生命周期中采用涉及技术方法和程序勤勉的整体方法。主要策略包括

Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并对模型进行评估,如 Ultralytics YOLO11等模型的性能,从而支持开发更公平的计算机视觉 (CV)解决方案。遵守道德准则也至关重要,例如人工智能合作伙伴关系(Partnership on AI)的道德准则。

阅读全部