욜로 비전 선전
선전
지금 참여하기
용어집

데이터 프라이버시

익명화에서 연합 학습에 이르기까지 AI/ML을 위한 주요 데이터 개인 정보 보호 기술을 알아보고 신뢰, 규정 준수 및 윤리적 AI 사례를 보장합니다.

인공지능(AI)머신러닝(ML)의 맥락에서 데이터 프라이버시는 개인 데이터 처리를 관리하는 원칙, 정책 및 절차를 의미합니다. 개인 정보의 수집, 사용, 저장 및 공유가 윤리적으로 그리고 개인의 권리 및 기대에 따라 수행되도록 보장하는 데 중점을 둡니다. 딥러닝 모델을 포함한 AI 시스템이 방대한 양의 훈련 데이터에 점점 더 의존함에 따라 개인 정보 보호는 책임감 있는 AI 개발의 초석이 되었습니다. 효과적인 데이터 프라이버시는 사용자와의 신뢰를 구축하고 글로벌 규정을 준수하는 데 매우 중요합니다.

데이터 프라이버시의 핵심 원칙

데이터 프라이버시는 MLOps 라이프사이클 전반에 걸쳐 개인 데이터가 관리되는 방식을 지시하는 몇 가지 기본 원칙에 의해 안내됩니다. 유럽의 일반 데이터 보호 규정(GDPR)캘리포니아 소비자 개인 정보 보호법(CCPA)과 같은 법률에 명시된 이러한 원칙에는 다음이 포함됩니다.

  • 목적 제한: 데이터는 특정되고 명시적이며 합법적인 목적으로만 수집되어야 하며, 해당 목적과 양립할 수 없는 방식으로 추가 처리되어서는 안 됩니다.
  • 데이터 최소화: 조직은 명시된 목적을 달성하는 데 절대적으로 필요한 데이터만 수집하고 처리해야 합니다.
  • 동의 및 투명성: 개인은 어떤 데이터가 수집되고 어떻게 사용되는지에 대해 명확하게 통보받아야 하며 명시적인 동의를 제공해야 합니다.
  • 개인 권리: 사용자는 자신의 개인 데이터에 액세스하고 수정하고 삭제할 권리가 있습니다.
  • 책임: 조직은 개인 정보 보호 원칙 준수를 입증할 책임이 있습니다. Electronic Frontier Foundation (EFF)와 같은 옹호 단체는 이러한 권리를 옹호합니다.

데이터 프라이버시 vs. 데이터 보안

데이터 프라이버시를 관련된 개념인 데이터 보안(data security)과 구별하는 것이 중요합니다.

  • 데이터 프라이버시(Data Privacy): 개인 데이터의 수집 및 사용에 관한 규칙 및 개인의 권리에 중점을 둡니다. 데이터가 적절하게 사용되는 대상, 이유방법에 대한 질문을 다룹니다.
  • 데이터 보안(Data Security): 침해 또는 무단 액세스와 같은 위협으로부터 데이터를 보호하기 위해 구현된 기술적 및 조직적 조치를 포함합니다. 예로는 암호화, 방화벽 및 액세스 제어가 있습니다.

서로 구별되지만 상호 의존적입니다. 강력한 데이터 보안 조치는 데이터 개인 정보 보호를 보장하기 위한 전제 조건입니다. NIST 개인 정보 보호 프레임워크와 같은 프레임워크는 두 가지를 통합하는 데 대한 지침을 제공합니다.

AI의 개인 정보 보호 강화 기술(PET)

AI의 개인 정보 보호 위험을 완화하기 위해 개발자는 다양한 개인 정보 보호 강화 기술(PET)을 사용합니다. 이러한 방법을 통해 민감한 정보의 노출을 최소화하면서 데이터에서 귀중한 통찰력을 얻을 수 있습니다. 주요 기술은 다음과 같습니다.

  • 익명화 및 가명화: 이러한 프로세스는 데이터 세트에서 개인 식별 정보(PII)를 제거하거나 대체하는 것을 포함합니다. 데이터 익명화는 개인을 다시 식별하는 것을 불가능하게 만들며, 이는 공개 릴리스 또는 모델 학습을 위해 데이터 세트를 준비할 때 매우 중요합니다.
  • 차등 개인 정보 보호: 이는 데이터 세트 출력에 통계적 노이즈를 추가하기 위한 수학적 프레임워크입니다. 단일 개인의 데이터 포함 또는 제외가 결과에 큰 영향을 미치지 않도록 보장하여 정확한 집계 분석을 허용하면서 개인 정보를 보호합니다. OpenDPTensorFlow Privacy와 같은 도구는 이 기술을 구현하는 데 도움이 됩니다.
  • Federated Learning: 원시 데이터가 해당 장치를 떠나지 않고 AI 모델이 여러 로컬 장치(예: 스마트폰)에서 훈련되는 분산 훈련 접근 방식입니다. 모델 업데이트만 집계를 위해 중앙 서버로 전송됩니다. 이 방법은 Apple과 같은 회사가 사용자 개인 정보를 보호하면서 AI 기능을 훈련하는 방법의 핵심입니다.

실제 애플리케이션

데이터 프라이버시 원칙은 많은 AI 애플리케이션에서 매우 중요합니다.

  • 헬스케어: 헬스케어 AI에서 모델은 질병을 감지하기 위한 의료 영상 분석과 같은 작업에 대해 훈련됩니다. HIPAA와 같은 규정을 준수하기 위해 모든 환자 데이터는 훈련에 사용되기 전에 익명화되어야 하며, 의료 혁신을 가능하게 하면서 환자 기밀성을 보호해야 합니다.
  • 개인 맞춤형 추천 시스템: 추천 시스템을 강화하기 위해 소매 부문의 기업은 민감한 개인 기록을 수집하지 않고도 사용자 선호도를 파악하기 위해 온디바이스 처리 및 연합 학습을 사용합니다. 이를 통해 Google의 개인 정보 보호 정책에 명시된 바와 같이 사용자 개인 정보를 존중하면서 맞춤형 제안이 가능합니다.

궁극적으로 강력한 데이터 개인 정보 보호 관행은 법적 요구 사항일 뿐만 아니라 AI 윤리의 기본 요소입니다. 이는 알고리즘 편향을 방지하고 AI 기술의 광범위한 채택에 필요한 사용자 신뢰를 구축하는 데 도움이 됩니다. Ultralytics HUB와 같은 플랫폼은 이러한 고려 사항을 염두에 두고 전체 AI 라이프사이클을 관리할 수 있는 도구를 제공합니다. 모범 사례에 대한 자세한 내용은 국제 개인 정보 보호 전문가 협회(IAPP)의 자료를 참조하십시오.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.