Yolo 비전 선전
선전
지금 참여하기
용어집

차등 정보 보호

차등 개인 정보 보호가 AI/ML에서 민감한 데이터를 어떻게 보호하는지 알아보고, 정확한 분석을 가능하게 하고 규정 준수를 보장하는지 알아보세요.

차등 개인정보 보호는 데이터 분석 및 머신러닝(ML)에 사용되는 강력한 수학적 프레임워크입니다. 알고리즘의 결과가 데이터 세트 내의 특정 개인에 대한 정보를 드러내지 않도록 보장하는 강력한 수학적 프레임워크입니다. 데이터 공개와 관련된 데이터 공개와 관련된 개인정보 손실을 정량화하여 조직이 총체적인 패턴과 추세를 공유하면서 모든 참여자에 대한 입증 가능한 기밀성 보장을 유지할 수 있습니다. 이러한 접근 방식은 다음과 같은 초석이 되었습니다. 데이터 과학자들이 민감한 정보로부터 가치 있는 인사이트를 민감한 정보에서 귀중한 인사이트를 추출할 수 있게 해줍니다.

차등 프라이버시 작동 방식

차등 프라이버시의 핵심 메커니즘은 계산된 양의 통계적 노이즈를 데이터 세트 또는 데이터베이스 쿼리 결과에 데이터 세트 또는 데이터베이스 쿼리 결과를 주입하는 것입니다. 이 노이즈는 한 개인의 기여도를 가릴 수 있을 만큼 충분히 유의미하도록 신중하게 보정되어 공격자가 특정 개인의 데이터가 공격자가 특정 개인의 데이터가 포함되었는지 여부를 판단할 수 없을 만큼 충분히 중요하지만, 전체 통계의 전체 통계의 정확성을 유지할 수 있을 만큼 충분히 작습니다.

딥러닝(DL)의 맥락에서 이 기술은 훈련 과정, 특히 경사 하강 시 그라데이션 하강. 모델 가중치를 업데이트하기 전에 그라디언트를 클리핑하고 노이즈를 추가함으로써 개발자는 개인 정보를 보호하는 모델을 만들 수 있습니다. 하지만 이렇게 하면 "프라이버시-효용성 트레이드오프"가 발생하는데, 프라이버시 설정을 강력하게 설정하면(노이즈가 더 많아짐) 최종 모델의 정확도가 최종 모델의 정확도가 약간 감소할 수 있습니다.

핵심 개념 및 구현

차등 프라이버시를 구현하기 위해 실무자는 "엡실론"(ε)이라는 매개변수를 활용하는데, 이는 프라이버시 예산의 프라이버시 예산. 엡실론 값이 낮을수록 개인정보 보호 요구사항이 엄격하고 노이즈가 많으며, 엡실론 값이 높을수록 이 높을수록 더 정확한 데이터를 허용하지만 잠재적인 정보 유출의 여지가 더 넓어집니다. 이 개념은 다음과 같은 경우에 중요합니다. 다음과 같은 민감한 작업을 위한 훈련 데이터를 준비할 때 의료 이미지 분석 또는 금융 예측할 때 중요합니다.

다음 Python 예제는 차등 프라이버시의 기본 개념인 데이터에 노이즈를 추가하여 정확한 값을 가리는 정확한 값을 가리는 것입니다. 전체 모델 학습에는 Opacus와 같은 라이브러리가 사용되지만, 이 스니펫에서는 다음을 사용합니다. PyTorch 를 사용하여 노이즈 주입 메커니즘을 설명합니다.

import torch

# Simulate a tensor of sensitive gradients or data points
original_data = torch.tensor([1.5, 2.0, 3.5, 4.0])

# Generate Laplacian noise (common in Differential Privacy) based on a privacy budget
noise_scale = 0.5
noise = torch.distributions.laplace.Laplace(0, noise_scale).sample(original_data.shape)

# Add noise to create a differentially private version
private_data = original_data + noise

print(f"Original: {original_data}")
print(f"Private:  {private_data}")

실제 애플리케이션

주요 기술 기업과 정부 기관은 차등 개인정보 보호 기술을 통해 사용자 경험을 향상하는 동시에 개인 정보를 보호합니다.

  • Apple의 사용자 사용 분석: Apple은 로컬 차등 개인 정보 보호 iPhone 및 Mac 사용자로부터 인사이트를 수집합니다. 이를 통해 인기 있는 이모티콘을 식별하고, 앱에서 메모리를 많이 사용하는 를 파악하고, 원시 사용자 데이터에 액세스하거나 개별 행동을 추적하지 않고도 퀵타입 제안을 개선할 수 있습니다.
  • 미국 인구조사국: The 2020 미국 인구조사에서는 차등 개인정보 보호정책을 채택하여 을 채택하여 인구 통계 통계를 발표했습니다. 이를 통해 게시된 데이터 테이블을 리버스 엔지니어링하여 특정 가구를 식별하여 인구통계 데이터에 대한 대중의 요구와 보호해야 할 법적 요구 사항의 균형을 맞출 수 있습니다. 시민의 기밀성.

차별적 개인정보 보호와 관련 용어

차등 개인정보 보호는 최신 개인정보 보호 기술에서 볼 수 있는 다른 개인정보 보호 기술과 구별하는 것이 중요합니다. 다른 개인정보 보호 기술과 구별하는 것이 중요합니다.

  • 차별적 개인정보 보호와 데이터 개인정보 보호: 데이터 개인정보 보호는 다음을 포괄하는 광범위한 분야입니다. 개인 데이터 취급에 관한 법률, 권리, 모범 사례(예: GDPR). 차등 개인정보 보호는 구체적인 수학적 정의이자 데이터 개인정보 보호 목표를 달성하는 데 사용되는 기술적 도구입니다.
  • 차등 개인 정보 보호와 연합 학습: 연합 학습은 분산형 학습 로 서버에 원시 데이터를 업로드하지 않고 로컬 디바이스(엣지 컴퓨팅)에서 모델을 학습시키는 방식입니다. 반면 연합 학습은 데이터를 로컬에 보관하지만, 모델 업데이트 자체가 정보를 유출하지 않는다는 보장은 없습니다. 따라서 차등 개인정보 보호는 모델 업데이트를 보호하기 위해 연합 학습과 결합되는 경우가 많습니다.
  • 차별적 개인정보 보호와 익명화: 기존의 익명화에는 이름과 같은 이름이나 주민등록번호와 같은 개인 식별 정보(PII)를 제거합니다. 제거합니다. 그러나 익명화된 데이터 세트는 종종 다른 공개 데이터와 상호 참조하여 "재식별"할 수 있습니다. 다른 공개 데이터와 상호 참조하여 "재식별"될 수 있습니다. 차등 개인정보 보호는 이러한 재식별 공격에 대해 수학적으로 증명 가능한 보장을 제공합니다. 공격.

컴퓨터 비전에서의 중요성

다음과 같은 고급 모델을 활용하는 사용자의 경우 YOLO11 과 같은 고급 모델을 활용하는 사용자 물체 감지 또는 감시와 같은 작업을 수행하는 사용자를 위해 차등 프라이버시는 영상에 캡처된 사람의 신원을 노출하지 않고 실제 비디오 피드에서 훈련할 수 있는 경로를 신원을 노출하지 않고도 실제 영상 피드에서 훈련할 수 있는 방법을 제공합니다. 이러한 기술을 통합하여 개발자는 다음을 구축할 수 있습니다. 견고하고, 규정을 준수하며, 대중이 신뢰할 수 있는 AI 시스템을 구축할 수 있습니다.

개인 정보 보호 도구에 대해 자세히 알아보려면 OpenDP 프로젝트에서 오픈 소스 제품군을 제공합니다. 알고리즘을 제공하며, Google 이러한 개념을 워크플로에 통합하고자 하는 이러한 개념을 워크플로에 통합하고자 하는 개발자를 위해 제공합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기