深圳Yolo 视觉
深圳
立即加入
词汇表

AI 中的公平性

Ultralytics共同探索人工智能的公平性。了解如何Ultralytics 减轻偏见、确保公平结果并实现符合伦理的物体检测。

人工智能中的公平性指用于确保 人工智能(AI)系统 公平运作的框架与技术体系,避免对任何个人或群体产生偏见或歧视。 随着自动化决策 日益融入关键领域,公平性的首要目标在于防止模型 基于种族、性别、年龄或社会经济地位等敏感属性 产生偏颇结果。这一理念是负责任人工智能发展的核心支柱, 常被《欧盟人工智能法案》等新兴法规强制要求, 以保障基本人权。

区分公平与相关概念

尽管在日常交谈中常被混用,但相较于相关术语,人工智能中的公平性在技术领域具有独特的定义。

  • 人工智能中的偏差:指模型输出中的系统性误差或偏见。偏见是亟待解决的问题,通常源于 非代表性的训练数据, 而公平性则是目标,以及用于缓解偏见的方法论。
  • 人工智能伦理:这是统领技术道德影响的哲学领域。公平性作为伦理学中可量化的具体组成部分,与数据隐私、责任追溯等原则并列。
  • 算法偏见:特指算法本身数学优化过程中引入的不公平性。 公平性举措采用专门的 优化算法来纠正这些 数学倾向。

真实应用与案例

在算法决策对人类机遇与福祉产生切实影响的"高风险"环境中,公平性的落实至关重要。

  • 公平医疗诊断:在医疗人工智能领域,计算机视觉模型可辅助诊断皮肤癌等疾病。公平模型必须在不同肤色间保持一致的准确性。若模型仅基于浅肤色训练,则可能出现数据集偏差,导致深肤色患者误诊风险增加。研究人员通过医疗图像分析基准测试来审核并修正此类差异。 数据集偏差,可能导致肤色较深患者 误诊。研究人员运用医学图像分析基准 对这些差异进行审计与修正。
  • 公平招聘与人才甄选:众多企业采用 预测性建模筛选简历。 若缺乏公平性约束,模型可能习得历史偏见——例如惩罚就业空档期或 特定教育背景(与某些人口统计特征相关)。借助 Fairlearn等工具,开发者可评估不同群体间的 性能差异,确保系统评估的是技能而非人口统计特征的替代指标。

实现公平的策略

创建公平的人工智能系统需要在整个机器学习(ML)生命周期中采取主动措施,涵盖从数据收集到部署的各个环节。

  • 多样化数据采集:确保公平性的最有效方式是构建包容性数据集。 严格的数据采集与标注流程可防止模型学习到扭曲的现实视角。Ultralytics 工具帮助团队可视化类别分布,在流程早期识别代表性不足的群体。
  • 算法缓解:可采用数据增强等技术 人工平衡数据集。例如,改变图像数据集中的光照条件或背景, 有助于模型在不同环境中实现更好的泛化能力。
  • 粒度评估:仅依赖单一全局指标可能掩盖歧视现象。团队应采用 详细模型评估来衡量 特定子群体的 精确度和 召回率
  • 透明度与可解释性运用可解释人工智能(XAI)技术,使利益相关方能够理解决策背后的逻辑。这种"玻璃盒"方法——由美国国家标准与技术研究院(NIST)人工智能风险管理框架等机构倡导——有助于更轻松地识别并修正歧视性逻辑。

技术实施

确保公平性通常需要在多样化的输入数据上测试模型,以验证其性能的一致性。以下是一个Ultralytics 简单示例。在实际的公平性审计中,开发者会将此推理循环应用于精心构建的"公平性测试集"——该图像集合专门选取了代表多样化场景和人口统计特征的样本——以确保目标检测在所有案例中均能发挥同等效果。

from ultralytics import YOLO

# Load the YOLO26 model (latest state-of-the-art model)
model = YOLO("yolo26n.pt")

# List of images representing diverse scenarios for fairness testing
# These would be images specifically currated to test underrepresented groups
test_images = ["diverse_group_1.jpg", "low_light_scenario.jpg", "unusual_angle.jpg"]

# Run inference to check if detection consistency holds across different inputs
results = model(test_images)

# Analyze results to ensure high confidence detections across all samples
for result in results:
    result.show()  # Visualize detection to manually inspect for bias

通过优先考虑公平性,组织不仅能遵守《通用数据保护条例》等法律标准,还能为全球民众构建更强大、更可靠、更值得信赖的系统。这符合人工智能安全更广泛的目标,确保强大技术能惠及整个社会。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入