深圳Yolo 视觉
深圳
立即加入
词汇表

AI 伦理

探索 AI 伦理——学习公平性、透明度、责任和隐私等原则,以确保负责任的 AI 开发和信任。

人工智能伦理涉及指导设计、开发和部署的道德原则、指导方针和政策。 人工智能(AI)的设计、开发和部署。由于人工智能 技术,如机器学习(ML)计算机视觉CV 计算机视觉 (CV)等人工智能技术深入 随着机器学习(ML)和计算机视觉(CV)等人工智能技术与社会的深度融合,这一领域需要解决有关安全、公平和人权的关键问题。主要目标 主要目标是确保人工智能系统在造福人类的同时,最大限度地减少伤害、防止歧视并维护隐私权。 欧盟人工智能法案》和《GDPR》等法规所规定的隐私标准。 GDPR 等法规所规定的隐私标准。

人工智能伦理的核心原则

要建立对自动化系统的信任,就必须制定强有力的道德框架。经合组织和 经合组织NIST 人工智能风险管理框架等组织概述了开发人员应遵循的几个关键支柱 开发人员应遵循的几个关键支柱:

  • 公平和非歧视:人工智能模型的设计必须避免 算法偏见,因为算法偏见可能导致对特定群体的歧视性结果。 对特定群体的歧视性结果。这包括严格审核 训练数据,以确保多样化的代表性,这是 这是人工智能公平性的核心概念。
  • 透明度和可解释性:用户有权了解决策是如何做出的。 人工智能的透明度可确保模型背后的逻辑 模型背后的逻辑。 可解释的人工智能(XAI)技术可解释 解释复杂 "黑盒 "模型(如 深度学习(DL)网络。
  • 隐私和数据管理:保护个人信息至关重要。道德人工智能要求 严格的数据隐私协议,确保用户 数据是在用户同意的情况下收集的,并得到安全处理。这包括在数据预处理过程中使用匿名化等技术。 数据预处理
  • 安全性和可靠性:系统必须安全可靠地运行,尤其是在高风险环境中。 环境中。人工智能安全研究的重点是防止 意外行为,确保人工智能模型如 Ultralytics YOLO11等模型在各种 在各种条件下表现一致。
  • 问责制:人工智能系统的行动和结果必须有明确的责任分工。 系统。这一原则由人工智能伙伴关系倡导,确保 开发者和组织对系统故障或有害影响负责。

实际应用

在人工智能与人类直接互动的各行各业中,都可以看到伦理原则的应用。

医疗诊断

医学图像分析中,人工智能工具可协助医生 在医学图像分析中,人工智能工具可协助医生通过 X 光片或核磁共振成像扫描诊断疾病。这里的伦理考虑至关重要;模型必须 模型必须在不同患者 高准确性,以防止出现健康差异。世界卫生组织(WHO 世界卫生组织(WHO) 世界卫生组织 (WHO) 提供了有关健康人工智能伦理的具体指导,以确保患者安全和公平护理。

公共监控中的隐私

智能城市通常采用物体检测系统 用于交通管理或安全。为了遵守道德隐私标准,开发人员可以实施 隐私保护功能,例如自动模糊人脸或车牌。这种做法符合 负责任的人工智能开发,让系统在监控交通流量的同时不侵犯个人隐私。

下面的Python 示例演示了如何通过使用 YOLO11和OpenCV 来模糊检测到OpenCV人:

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Perform inference on an image
results = model("path/to/urban_scene.jpg")

# Read the original image
img = cv2.imread("path/to/urban_scene.jpg")

# Iterate through detections to blur 'person' class (ID 0) for privacy
for box in results[0].boxes.data:
    if int(box[5]) == 0:  # Class 0 represents 'person'
        x1, y1, x2, y2 = map(int, box[:4])
        # Apply a strong Gaussian blur to the detected region
        img[y1:y2, x1:x2] = cv2.GaussianBlur(img[y1:y2, x1:x2], (51, 51), 0)

AI伦理与相关概念

虽然人工智能伦理是总体道德框架,但它有别于相关的技术和具体领域:

  • 人工智能伦理与人工智能宪法 宪法式人工智能是一种特定的训练方法(用于实验室,如 Anthropic等实验室使用)。 原则(宪法)。人工智能伦理是一个更广泛的领域,它讨论并定义了这些原则应该是什么。 是什么。
  • 人工智能伦理与人工智能安全人工智能安全 人工智能安全主要是技术层面的,侧重于预防事故、执行 模型监控和调整。人工智能伦理 包括安全,但也包括社会、法律和道德层面,如正义和权利。
  • 人工智能伦理与人工智能中的偏见偏见是指 是指模型中产生不公平结果的特定系统误差。解决偏差问题是人工智能伦理大目标中的一个子任务。 通常通过仔细的 数据集注释和平衡。

通过将这些伦理考虑因素纳入人工智能开发的生命周期--从数据收集到 数据收集模型部署的生命周期中,组织就能降低风险 并确保其技术对社会做出积极贡献。斯坦福以人为本人工智能研究所提供的资源 斯坦福以人为本的人工智能研究所 (HAI)斯坦福以人为本人工智能研究所(HAI)和电气和电子工程师学会自主与智能系统伦理全球倡议(IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems)提供的资源 将继续塑造这一重要领域的未来。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入