了解算法偏见、其来源及现实案例。学习如何缓解偏见,构建公平、合乎道德的 AI 系统。
算法偏差是指计算机系统中出现的系统性和可重复的错误,这些错误会造成不公平的结果,例如 任意将一组用户置于其他用户之上。在 就人工智能(AI)而言,这种 现象发生在 机器学习(ML)模型产生的结果 在人工智能(AI)领域,当机器学习(ML)模型产生的结果持续偏向特定人群或场景时,就会出现这种现象。与随机误差不同的是 算法偏差反映了模型设计、训练或部署过程中的结构性缺陷。 解决这些偏见是 人工智能伦理的一个基本方面,也是建立对 自动决策系统建立信任的关键。
偏见会通过多种途径潜入人工智能系统。最常见的来源是不具代表性的 训练数据。如果一个 计算机视觉 (CV)模型主要是在某一地理区域的图像上训练出来的 如果计算机视觉(CV)模型主要是在某一地理区域的图像上训练出来的,那么它在识别世界其他地方的物体或场景时可能会很吃力。 这通常被称为数据集偏差。然而 算法本身--处理数据的数学逻辑--也会带来偏差。例如 优化算法 可能会牺牲较小的、代表性不足的子群的表现,以获得更高的总分。
算法偏差对各行各业的影响都很大,尤其是在自动系统做出高风险决策的情况下。 高风险决策。
为了有效减少偏见,最好将 "算法偏见 "与以下领域的相关术语区分开来 领域的 负责任的人工智能。
开发人员可以通过采用严格的测试和多样化的训练策略来减少算法偏差。诸如 数据扩充等技术可以帮助平衡数据集。 创建代表性不足示例的变体,从而帮助平衡数据集。此外,遵守诸如 NIST 人工智能风险管理框架等框架,确保采用结构化的方法来识别风险。 结构化方法来识别风险。
下面的示例演示了如何在训练期间使用 Ultralytics YOLO11.通过增加几何增强 通过增加翻转或缩放等几何增强功能,模型可以学会更好地概括,从而减少对特定物体方向或位置的偏 方向或位置的偏差。
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with increased augmentation to improve generalization
# 'fliplr' (flip left-right) and 'scale' help the model see diverse variations
results = model.train(
data="coco8.yaml",
epochs=50,
imgsz=640,
fliplr=0.5, # 50% probability of horizontal flip
scale=0.5, # +/- 50% image scaling
)
Fairlearn和 Google的 What-If 工具等工具可以让工程师审核他们的模型 不同分组之间的差异。最终,实现 最终,实现人工智能的透明度需要结合 技术解决方案、多样化的开发团队以及对模型在现实世界中的表现进行持续评估。

