术语表

人工智能的公平性

通过道德、公正的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、策略和 Ultralytics YOLO。

人工智能的公平性是一个多学科领域,致力于确保人工智能系统不会对不同个人或群体造成或延续不公平的结果。它涉及开发和部署公平对待所有用户的模型,而不论其人口背景,如种族、性别、年龄或其他受保护的特征。实现公平性是建立值得信赖、负责任的人工智能系统的重要组成部分,可造福于整个社会。对公平性的追求超越了模型的准确性,而是侧重于人工智能驱动决策的社会影响和伦理意义。

公平与相关概念的区别

虽然公平和相关术语经常交替使用,但它们有着不同的含义:

  • 人工智能伦理这是一个宽泛的领域,涵盖与人工智能有关的所有伦理考虑因素,包括人工智能中的 数据隐私、问责制和透明度。公平是人工智能伦理大框架中的核心原则。
  • 人工智能中的偏见偏见是指人工智能系统输出结果中的系统性错误或偏见,通常源于偏斜的训练数据或有缺陷的算法。公平性是指主动识别和减轻这种偏见,以防止出现歧视性结果。
  • 算法偏差这是一种特定类型的偏差,源于算法本身,其逻辑本身可能偏向某些群体。公平计划旨在通过开发和评估过程中的专门技术来纠正算法偏差。

人工智能公平性的现实应用

在人工智能决策会对人们的生活产生重大影响的高风险应用中,实现公平性至关重要。两个突出的例子包括

  1. 公平金融服务公司:人工智能模型被广泛用于评估贷款信用度。由于贷款数据的历史偏差,一个不公平的模型可能会以高于其他模型的比率拒绝向少数群体的合格申请人发放贷款。公平的人工智能系统经过设计和测试,可确保其贷款建议与受保护特征无关,从而促进平等获得金融机会,这也是世界经济论坛等机构所倡导的。
  2. 公正的招聘工具:公司越来越多地使用人工智能来筛选简历和识别有前途的求职者。但是,如果一个模型是根据反映过去工作场所偏见的历史招聘数据训练出来的,那么它可能会不公平地惩罚女性求职者或使用非传统姓名的求职者。为应对这种情况,开发人员会实施公平性限制并进行审核,以确保工具仅根据技能和资质对所有求职者进行评估,正如人力资源管理协会(SHRM)等组织所研究的那样。

实现人工智能系统的公平性

实现公平是一个持续的过程,需要在整个人工智能生命周期中采用整体方法。主要策略包括

Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并评估Ultralytics YOLO11等模型在不同群体中的性能。这有助于开发更公平的计算机视觉 (CV)解决方案。遵守 "人工智能合作伙伴关系"(Partnership on AI)等组织制定的道德准则,并遵循《美国国家标准与技术研究院人工智能风险管理框架》(NIST AI Risk Management Framework)等政府框架,也是至关重要的步骤。研究界将继续在ACM 公平性、问责制和透明度(FAccT)会议等场合推动这些主题的发展。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板