用合乎道德、不带偏见的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、战略和Ultralytics YOLO 。
人工智能的公平性是人工智能(AI)的一个关键领域,其重点是确保人工智能系统的运行不会对特定个人或群体造成或强化不公平的结果。它涉及人工智能模型的开发和应用,以避免基于种族、性别、年龄或宗教等敏感特征的歧视。随着人工智能越来越多地影响从金融到医疗保健领域的重要决策,嵌入公平性对于道德实践、监管合规以及建立社会对这些强大技术的信任至关重要。
人工智能领域的公平定义非常复杂,没有一个普遍接受的定义。相反,它涉及多种数学标准和道德原则,旨在防止不公平待遇。一个核心挑战是识别和减轻人工智能中的偏差,这种偏差有多种来源。当训练数据不能准确代表现实世界的多样性时,就会出现数据 集偏差,这通常反映了历史上的社会偏见。算法偏差可能源于模型设计或优化过程本身。公平性有不同的数学定义,如人口均等(结果独立于敏感属性)和机会均等(不同群体的真实阳性率相同)。然而,正如该领域的研究(如ACM FAccT 论文集)所强调的那样,同时实现多个公平性标准在数学上是不可能的。开发人员必须仔细考虑哪些公平性定义最适合其特定的应用环境。
人工智能的公平性因其潜在的社会影响而意义重大。不公平的人工智能系统可能会在招聘、贷款审批、刑事司法和医学影像分析等关键领域导致歧视性结果,使某些群体处于不利地位并限制机会。确保公平不仅是道德的要求,也越来越成为法律的需要,NIST 人工智能风险管理框架等框架为负责任的开发提供了指导。优先考虑公平性有助于防止伤害,促进社会公平,并为广泛、负责任地采用人工智能建立必要的信任。这与更广泛的人工智能伦理原则相一致,后者也涵盖了人工智能的问责制、透明度和数据隐私。
在许多人工智能应用中,对公平性的考虑至关重要。这里有两个例子:
虽然相关,但人工智能中的公平与其他几个概念不同:
要实现人工智能的公平性,需要在整个人工智能生命周期中采用涉及技术方法和程序勤勉的整体方法。主要策略包括
Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并对模型进行评估,如 Ultralytics YOLO11等模型的性能,从而支持开发更公平的计算机视觉 (CV)解决方案。遵守道德准则也至关重要,例如人工智能合作伙伴关系(Partnership on AI)的道德准则。