敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024
词汇表

AI 中的公平性

使用符合伦理道德且无偏见的模型确保 AI 的公平性。探索用于公平 AI 解决方案的工具、策略和 Ultralytics YOLO。

AI 公平性是一个多学科领域,致力于确保人工智能系统不会为不同的个人或群体制造或延续不公正的结果。它涉及到开发和部署公平对待所有用户的模型,无论其人口背景如何,例如种族、性别、年龄或其他受保护的特征。实现公平是构建可信和 负责任的 AI 系统的关键组成部分,这些系统能够使整个社会受益。对公平的追求超越了模型准确性,而是侧重于 AI 驱动决策的社会影响和伦理影响。

公平性与相关概念有何不同

公平性及相关术语虽然经常互换使用,但它们具有不同的含义:

  • AI 伦理 这是一个广泛的领域,涵盖与人工智能相关的所有伦理考量,包括数据隐私、责任和AI 透明度。公平是 AI 伦理这一更大框架中的核心原则。
  • AI 中的偏见: 偏见是指 AI 系统输出中存在的系统性错误或偏见,这些错误或偏见通常源于有偏差的训练数据或有缺陷的算法。 公平性是积极主动地识别和减轻这种偏见,以防止出现歧视性结果的目标。
  • 算法偏差: 这是一种特殊的偏差,它源于算法本身,其逻辑可能固有地偏向某些群体。公平性倡议旨在通过开发和评估期间的专门技术来纠正算法偏差。

AI 公平性的真实世界应用

在人工智能决策可能对人们的生活产生重大影响的高风险应用中,实施公平性至关重要。以下是两个突出的例子:

  1. 公平金融服务: 人工智能模型被广泛用于评估贷款的信用度。不公平的模型可能会以高于其他人的比率,拒绝向少数群体中符合条件的申请人提供贷款,这是由于贷款数据中存在历史偏见。一个公平的AI系统经过设计和测试,以确保其贷款建议与受保护的特征无关,从而促进了像世界经济论坛等机构所倡导的平等获得金融机会。
  2. 公正的招聘工具: 公司越来越多地使用 AI 来筛选简历并识别有前途的候选人。但是,如果模型是根据反映过去工作场所偏见的历史招聘数据进行训练的,则可能会不公平地惩罚女性候选人或名字非传统的申请人。为了解决这个问题,开发人员实施公平性约束并进行审计,以确保该工具仅根据技能和资历来评估所有候选人,正如 美国人力资源管理协会 (SHRM) 等组织所研究的那样。

在 AI 系统中实现公平性

实现公平是一个持续的过程,需要在整个 AI 生命周期中采用整体方法。关键策略包括:

诸如 Ultralytics HUB 这样的平台提供了用于 自定义模型训练 和管理的工具,使开发人员能够仔细管理数据集并评估 Ultralytics YOLO11 等模型在不同群体中的性能。这支持了更公平的 计算机视觉 (CV) 解决方案的开发。遵守 人工智能合作伙伴关系 等组织的道德准则,并遵循 NIST AI 风险管理框架 等政府框架也是至关重要的步骤。研究界继续在 ACM 公平性、问责性和透明度会议 (FAccT) 等场所推进这些主题。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板