深圳Yolo 视觉
深圳
立即加入
词汇表

AI 中的偏差

了解如何通过策略、工具和真实案例来识别、缓解和预防 AI 系统中的偏见,从而实现合乎道德的 AI 开发。

人工智能中的偏见是指人工智能(AI)系统中蕴含的系统性错误或偏见。 人工智能(AI)系统中蕴含的系统性错误或偏见。 导致不公平、不公正或歧视性的结果。与随机误差不同,这些偏差具有一致性和可重复性。 与随机错误不同的是,这些偏见具有一致性和可重复性,通常会使任意一组用户或数据输入优先于其他用户或数据输入。随着企业越来越多地 将机器学习(ML)融入关键的 决策过程中,识别和解决偏见已成为人工智能伦理的核心支柱。 人工智能伦理的核心支柱。如果不能减少这些问题,就会导致 偏差。 人工智能在医疗诊断到自动 金融借贷。

人工智能系统中的偏见来源

在开发生命周期的多个阶段,偏见都可能渗入人工智能系统。了解这些根源 对于创建稳健、公平的模型至关重要。

  • 数据集偏差这是最普遍的来源。 数据集偏差 用于教授模型的训练数据不能 准确地代表现实世界的人群。例如,如果一个 图像分类模型 就很难识别其他地区的物体或场景,这种现象通常与选择偏差有关。 这种现象通常与选择偏差有关。
  • 算法偏差有时、 算法本身的数学设计会扩大现有的差异。某些 优化算法可能会优先考虑整体准确性 某些优化算法可能会优先考虑整体准确性,而忽略代表性不足的 子群体,从而有效地忽略了代表有效少数群体的 "异常值"。
  • 认知偏差和人为偏差:工程师在数据标注或特征选择过程中做出的主观选择 数据标记或特征选择时做出的主观选择会 不经意间就会将人类的偏见编码到系统中。

现实世界的应用和影响

人工智能偏见的后果在各种已部署的技术中都可以观察到。

  1. 面部识别差异:商业 面部识别系统识别妇女和有色人种时 在识别女性和有色人种时出错率较高。研究项目 性别阴影》等研究项目强调了 不具代表性的数据集如何导致特定人群的识别效果不佳,从而呼吁制定更好的 数据隐私和包容性标准。
  2. 预测性警务和累犯:用于预测犯罪累犯的算法因表现出种族偏见而受到批评。 被批评有种族偏见。调查显示 ProPublica 对 COMPAS 等调查显示,一些模型更有可能将少数族裔被告错误地标记为高危人群,这说明了 依赖反映社会不平等现象的历史逮捕数据的危险性。

缓解战略和工具

解决偏见问题需要一种积极主动的方法,这种方法被称为 人工智能的公平性。开发人员可以采用几种 技术来detect 和减少偏见。

  • 数据扩充:改进模型泛化的一个有效方法是 数据增强。通过人为生成 例如翻转、旋转或调整图像的色彩平衡,开发人员就能揭示出类似的模型。 开发人员就可以将类似 Ultralytics YOLO11这样的模型 更广泛的输入。
  • 算法审计:根据不同的基准定期测试模型至关重要。工具,如 IBM 的 AI Fairness 360和 Microsoft的Fairlearn等工具提供了评估不同子群中模型性能的指标。 不同分组的模型性能。
  • 透明度:采用 可解释的人工智能(XAI)实践有助于 利益相关者了解模型做出特定预测的原因,从而更容易发现歧视性逻辑。 逻辑。

代码示例:用增强功能提高泛化能力

下面的Python 代码段演示了如何在训练过程中使用 ultralytics 包。这有助于模型对某些变化保持不变,从而减少对特定视觉特征的过度拟合。 对特定视觉特征的过度拟合。

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

区分相关术语

将 "人工智能中的偏见 "与密切相关的术语区分开来是有帮助的:

  • 人工智能中的偏见与算法偏见 "人工智能中的偏见 "是一个总括术语,包含所有不公平的来源(数据、人为和系统)。 "算法偏差 "特指模型的计算程序或目标函数引入的偏差。 目标函数带来的偏差。
  • 人工智能中的偏差与数据集偏差 "数据集偏差 "是人工智能偏差的一个特定原因,其根源在于训练材料的收集和整理。 材料。如果一个完全公平的算法从有偏见的数据集中学习,那么它仍然会表现出 "人工智能中的偏见"。

通过遵守 通过遵守NIST 人工智能风险管理框架框架,开发人员可以 努力构建 负责任的人工智能 系统。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入