术语表

数据隐私

了解从匿名化到联合学习等人工智能/移动媒体的关键数据隐私技术,确保信任、合规和合乎道德的人工智能实践。

人工智能(AI)机器学习(ML)的背景下,数据隐私是指管理个人数据处理的原则、政策和程序。其重点是确保个人信息的收集、使用、存储和共享符合道德规范,并符合个人的权利和期望。随着包括深度学习模型在内的人工智能系统越来越依赖于大量的训练数据,保护隐私已成为负责任的人工智能开发的基石。有效的数据隐私对于建立用户信任和遵守全球法规至关重要。

数据隐私的核心原则

数据隐私遵循几项基本原则,这些原则规定了在整个MLOps 生命周期中应如何管理个人数据。这些原则通常编入欧洲的《通用数据保护条例》(GDPR)和《加利福尼亚消费者隐私法案》(CCPA)等法律中,其中包括

  • 目的限制:收集数据只能用于指定、明确和合法的目的,不得以不符合这些目的的方式进一 步处理数据。
  • 数据最小化:组织应只收集和处理为实现其既定目的绝对必要的数据。
  • 同意和透明度:必须明确告知个人正在收集哪些数据以及如何使用这些数据,个人必须明确表示同意。
  • 个人权利:用户有权访问、更正和删除其个人数据。
  • 问责制:组织有责任证明遵守了隐私原则。电子前沿基金会(EFF)等倡导团体倡导这些权利。

数据隐私与数据安全

必须将数据隐私与相关的数据安全概念区分开来。

  • 数据隐私:侧重于与收集和使用个人数据有关的规则和个人权利。它解决的是什么为什么以及如何适当使用数据的问题。
  • 数据安全:涉及为保护数据免受外泄或未经授权访问等威胁而实施的技术和组织措施。例如加密、防火墙和访问控制。

虽然两者截然不同,但却相互依存。强大的数据安全措施是确保数据隐私的先决条件。NIST 隐私框架等框架为整合两者提供了指导。

人工智能中的隐私增强技术 (PET)

为了降低人工智能的隐私风险,开发人员采用了各种隐私增强技术(PET)。这些方法可以从数据中获得有价值的见解,同时最大限度地减少敏感信息的暴露。主要技术包括

  • 匿名化和假名化:这些过程涉及删除或替换数据集中的个人身份信息 (PII)数据匿名化使个人身份无法再识别,这在准备公开发布或模型训练数据集时至关重要。
  • 差分隐私这是一种为数据集输出添加统计噪音的数学框架。它能确保包含或排除任何一个人的数据都不会对结果产生重大影响,从而在保护个人隐私的同时,还能进行准确的汇总分析。OpenDPTensorFlow Privacy等工具有助于实现这一技术。
  • 联合学习一种分散式训练方法,在多个本地设备(如智能手机)上训练人工智能模型,原始数据不会离开这些设备。只有模型更新会被发送到中央服务器进行汇总。这种方法是苹果等公司在保护用户隐私的同时训练人工智能功能的核心。

实际应用

在许多人工智能应用中,数据隐私原则至关重要:

  • 医疗保健:医疗保健领域的人工智能中,模型被训练用于医疗图像分析等任务,以检测疾病。为了遵守HIPAA 等法规,所有患者数据在用于训练之前都必须匿名化,从而在实现医学突破的同时保护患者的隐私。
  • 个性化推荐系统:为了支持推荐系统零售业的公司使用设备处理和联合学习来了解用户偏好,而不收集敏感的个人历史记录。这样既能提供量身定制的建议,又能尊重用户隐私(如谷歌的隐私政策)。

归根结底,健全的数据隐私实践不仅是法律要求,也是人工智能伦理的基本组成部分。它们有助于防止算法偏见,并建立广泛采用人工智能技术所需的用户信任。Ultralytics HUB等平台提供了管理整个人工智能生命周期的工具,其中考虑到了这些因素。有关最佳实践的更多信息,您可以参考国际隐私专业人员协会 (IAPP) 提供的资源。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板