Ultralytics共同探索人工智能的公平性。了解如何Ultralytics 减轻偏见、确保公平结果并实现符合伦理的物体检测。
人工智能中的公平性指用于确保 人工智能(AI)系统 公平运作的框架与技术体系,避免对任何个人或群体产生偏见或歧视。 随着自动化决策 日益融入关键领域,公平性的首要目标在于防止模型 基于种族、性别、年龄或社会经济地位等敏感属性 产生偏颇结果。这一理念是负责任人工智能发展的核心支柱, 常被《欧盟人工智能法案》等新兴法规强制要求, 以保障基本人权。
尽管在日常交谈中常被混用,但相较于相关术语,人工智能中的公平性在技术领域具有独特的定义。
在算法决策对人类机遇与福祉产生切实影响的"高风险"环境中,公平性的落实至关重要。
创建公平的人工智能系统需要在整个机器学习(ML)生命周期中采取主动措施,涵盖从数据收集到部署的各个环节。
确保公平性通常需要在多样化的输入数据上测试模型,以验证其性能的一致性。以下是一个Ultralytics 简单示例。在实际的公平性审计中,开发者会将此推理循环应用于精心构建的"公平性测试集"——该图像集合专门选取了代表多样化场景和人口统计特征的样本——以确保目标检测在所有案例中均能发挥同等效果。
from ultralytics import YOLO
# Load the YOLO26 model (latest state-of-the-art model)
model = YOLO("yolo26n.pt")
# List of images representing diverse scenarios for fairness testing
# These would be images specifically currated to test underrepresented groups
test_images = ["diverse_group_1.jpg", "low_light_scenario.jpg", "unusual_angle.jpg"]
# Run inference to check if detection consistency holds across different inputs
results = model(test_images)
# Analyze results to ensure high confidence detections across all samples
for result in results:
result.show() # Visualize detection to manually inspect for bias
通过优先考虑公平性,组织不仅能遵守《通用数据保护条例》等法律标准,还能为全球民众构建更强大、更可靠、更值得信赖的系统。这符合人工智能安全更广泛的目标,确保强大技术能惠及整个社会。