深圳Yolo 视觉
深圳
立即加入
词汇表

数据隐私

探索 AI/ML 的关键数据隐私技术,从匿名化到联邦学习,确保信任、合规性和符合伦理的 AI 实践。

数据隐私是指有关如何在以下方面收集、处理和共享个人信息的管理、实践和道德标准 数据隐私是指在人工智能(AI)和 人工智能(AI)机器学习 (ML)系统中如何收集、处理存储和共享个人信息的治理实践和道德标准。由于现代 算法,特别是 深度学习 (DL)模型需要大量的 训练数据才能实现高性能,因此确保 个人的保密性和权利已成为一项严峻的挑战。有效的数据隐私措施可以建立 有效的数据隐私措施可建立用户信任,并确保符合法律框架,如《欧洲通用数据保护条例》(GDP 欧洲通用数据保护条例》(GDPR)加州消费者隐私法案》(CCPA)等法律框架。

数据隐私的核心原则

在 就机器学习操作 (MLOps) 而言,数据隐私不仅涉及保密,还涉及控制和同意。主要原则包括

  • 数据最小化:系统应只收集规定任务所需的特定数据、 避免囤积敏感信息。
  • 目的限制:为某一目的收集的数据,例如 未经明确同意,不得用于无关任务。
  • 透明度:组织必须清楚数据的用途。这是 人工智能伦理的基石,有助于防止 算法偏见
  • 匿名化:应删除或隐藏个人识别信息。化名等技术 匿名化等技术 假身份,从而在保护个人身份的同时进行数据分析。

数据隐私 vs. 数据安全

虽然这些术语经常互换使用,但它们在人工智能生命周期中代表着不同的概念。

  • 数据隐私涉及个人权利和数据使用的合法性。 它涉及同意和道德处理问题。
  • 数据安全涉及 用于保护数据免遭未经授权的访问、盗窃或对抗性攻击的技术机制攻击

安全是保护隐私的工具。例如,加密就是一种有助于满足隐私要求的安全措施。 要求。机构,如 国家标准与技术研究院 (NIST)等机构提供了 等机构提供了有效整合两者的框架。

人工智能在现实世界中的应用

在自动处理敏感个人信息的部门,数据隐私至关重要。

保护隐私的技巧

开发人员利用各种隐私增强技术(PET)来确保 ML 工作流的安全:

  • 差异隐私这种 这种方法在数据集中加入统计噪音,确保算法输出不会显示输入中是否包含任何特定个人的信息。 特定个人的信息是否包含在输入中。像 OpenMined等组织倡导使用这些开源隐私工具。
  • 联合学习联合学习 将模型发送到设备(边缘计算),而不是集中管理数据。模型在本地学习,只发送 更新,将原始数据保留在用户设备上。这对于 自动驾驶汽车和移动设备。
  • 合成数据生成 生成模拟真实世界统计属性的人工数据,让工程师可以在不暴露真实用户数据的情况下训练模型。 真实的用户数据。

示例:使用Python对图像进行匿名处理

最常见的隐私保护任务之一是模糊视觉数据中的人脸或敏感区域。下面的示例 演示了如何使用 YOLO11来detect 一个对象(如 人)并应用模糊来保护其身份。

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Read an image
img = cv2.imread("bus.jpg")

# Run object detection
results = model(img)

# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
    x1, y1, x2, y2 = map(int, box)
    # Extract the region of interest (ROI)
    roi = img[y1:y2, x1:x2]
    # Apply a Gaussian blur to the ROI to anonymize it
    img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)

# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入