Yolo 비전 선전
선전
지금 참여하기
용어집

데이터 프라이버시

익명화에서 연합 학습에 이르기까지 AI/ML을 위한 주요 데이터 개인 정보 보호 기술을 알아보고 신뢰, 규정 준수 및 윤리적 AI 사례를 보장합니다.

데이터 개인정보 보호는 개인 정보를 수집, 처리, 저장, 공유하는 방식에 관한 거버넌스, 관행 및 윤리적 기준을 말합니다. 수집, 처리, 저장, 공유 방식에 관한 거버넌스, 관행, 윤리 기준을 말합니다. 인공 지능(AI)머신러닝(ML) 시스템 내에서 개인정보를 수집하고 저장하고 공유하는 방법에 관한 거버넌스 및 윤리 기준을 말합니다. 현대의 알고리즘, 특히 딥러닝(DL) 모델은 고성능을 달성하기 위해 방대한 양의 고성능을 달성하기 위해 방대한 양의 학습 데이터가 필요하기 때문에 개인의 기밀성과 권리를 보장하는 것이 중요한 과제가 되었습니다. 효과적인 데이터 개인정보 보호 조치는 사용자 신뢰를 구축하고 다음과 같은 법적 프레임워크를 준수하도록 보장합니다. 유럽 일반 데이터 보호 규정(GDPR)캘리포니아 소비자 개인정보 보호법(CCPA).

데이터 프라이버시의 핵심 원칙

머신 러닝 운영(MLOps)의 맥락에서 머신 러닝 운영(MLOps)의 맥락에서 데이터 프라이버시는 단순한 비밀이 아니라 제어와 동의에 관한 것입니다. 주요 원칙은 다음과 같습니다:

  • 데이터 최소화: 시스템은 정의된 작업에 필요한 특정 데이터만 수집해야 합니다, 민감한 정보가 쌓이는 것을 방지해야 합니다.
  • 목적 제한: 다음과 같은 한 가지 목적을 위해 수집된 데이터는 컴퓨터 비전으로 제조 개선과 같은 한 가지 목적으로 수집된 데이터는 명시적인 동의 없이 관련 없는 업무에 사용해서는 안 됩니다.
  • 투명성: 조직은 어떤 데이터가 사용되고 있는지 명확히 파악해야 합니다. 이는 AI 윤리의 초석이며 AI 윤리의 초석이며 알고리즘 편향성을 방지하는 데 도움이 됩니다.
  • 익명화: 개인 식별 정보를 제거하거나 가려야 합니다. 다음과 같은 기술은 가명 처리와 같은 기술은 개인 식별자를 를 가짜 ID로 대체하여 개인의 신원을 보호하면서 데이터를 분석할 수 있습니다.

데이터 프라이버시 vs. 데이터 보안

이 용어는 종종 같은 의미로 사용되지만, AI 수명 주기에서는 서로 다른 개념을 나타냅니다.

  • 데이터 개인정보 보호는 개인의 권리와 데이터 사용의 적법성에 관한 것입니다. 동의와 윤리적 취급에 관한 문제를 다룹니다.
  • 데이터 보안 에는 무단 액세스, 도난 또는 적대적 공격으로부터 데이터를 보호하는 데 사용되는 적대적인 공격으로부터 데이터를 보호하는 기술적 메커니즘을 포함합니다.

보안은 개인정보 보호를 강화하는 도구입니다. 예를 들어 암호화는 개인정보 보호 요구 사항을 충족하는 데 도움이 되는 보안 조치입니다. 요구 사항을 충족하는 데 도움이 되는 보안 조치입니다. 다음과 같은 기관에서는 미국 국립표준기술연구소(NIST)와 같은 기관에서는 두 가지를 효과적으로 통합할 수 있는 두 가지를 효과적으로 통합할 수 있는 프레임워크를 제공합니다.

AI의 실제 적용 사례

민감한 개인정보가 자동으로 처리되는 분야에서는 데이터 프라이버시가 무엇보다 중요합니다.

  • 의료 진단: In 의료 이미지 분석에서 병원은 AI를 사용하여 을 사용하여 종양과 같은 상태를 detect . 이를 위해 건강 보험 이동성 및 책임법(HIPAA), 환자 스캔은 모델 학습에 사용하기 전에 개인 식별 정보(PII)를 제거해야 합니다. 혁신가들은 종양 탐지를 위해 YOLO11 사용 익명화된 데이터 세트에서 환자의 기밀을 침해하지 않으면서 결과를 개선하기 위해 종양 검출에 YOLO11을 사용하고 있습니다.
  • 스마트 시티와 감시: 컴퓨터 비전은 다음과 같은 용도로 널리 사용됩니다. 교통 관리 및 보안에 널리 사용됩니다. 하지만 공공장소를 녹화하면 개인정보 보호 문제가 제기됩니다. 이를 해결하기 위해 개발자는 물체 감지 기능을 사용하여 방관자나 번호판을 식별하고 실시간 블러 효과를 적용합니다. 이를 통해 시스템은 교통 흐름을 모니터링하면서 개인의 익명성을 보호함으로써 개인의 익명성을 보호하면서 교통 흐름을 모니터링할 수 있습니다.

개인정보 보호를 위한 기술

개발자는 다양한 개인 정보 보호 강화 기술(PET)을 활용하여 ML 워크플로우를 보호합니다:

  • 차별적 개인정보 보호: 이 메서드는 데이터 세트에 통계적 노이즈를 추가하여 알고리즘의 출력에서 특정 개인의 정보가 입력에 포함되었는지 여부가 특정 개인의 정보가 입력에 포함되었는지 여부를 알 수 없도록 합니다. 다음과 같은 조직 같은 단체는 이러한 오픈 소스 개인정보 보호 도구를 옹호합니다.
  • 연합 학습: 대신 데이터를 중앙 집중화하는 대신 모델이 디바이스로 전송됩니다(엣지 컴퓨팅). 모델은 로컬에서 학습하고 업데이트된 데이터만 업데이트만 다시 전송하여 사용자의 디바이스에 원시 데이터를 유지합니다. 이는 점점 더 자율 주행 차량 및 모바일 디바이스.
  • 합성 데이터: 생성 실제 통계적 속성을 모방한 인공 데이터를 통해 엔지니어는 실제 사용자 데이터를 노출하지 않고도 모델을 훈련할 수 있습니다. 모델을 훈련할 수 있습니다.

예시: Python 이미지 익명화하기

가장 일반적인 개인정보 보호 작업 중 하나는 시각적 데이터에서 얼굴이나 민감한 영역을 흐리게 처리하는 것입니다. 다음 예제 는 YOLO11detect 사용하여 물체(예 사람)을 감지하고 블러를 적용하여 신원을 보호하는 방법을 보여줍니다.

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Read an image
img = cv2.imread("bus.jpg")

# Run object detection
results = model(img)

# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
    x1, y1, x2, y2 = map(int, box)
    # Extract the region of interest (ROI)
    roi = img[y1:y2, x1:x2]
    # Apply a Gaussian blur to the ROI to anonymize it
    img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)

# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기