Découvrez les principales techniques de confidentialité des données pour l'IA/ML, de l'anonymisation à l'apprentissage fédéré, garantissant la confiance, la conformité et des pratiques d'IA éthiques.
La protection des données fait référence à la gouvernance, aux pratiques et aux normes éthiques concernant la manière dont les informations personnelles sont collectées, traitées, stockées et partagées au sein de l'entreprise. collectées, traitées, stockées et partagées dans le cadre de l'intelligence l'intelligence artificielle (IA) et systèmes d'apprentissage automatique. Comme les modernes, en particulier les modèles les modèles d'apprentissage profond (DL), nécessitent de grandes de données d'entraînement pour atteindre de hautes performances, la la confidentialité et les droits des individus est devenu un défi critique. Des mesures efficaces de protection des données confiance des utilisateurs et garantissent la conformité avec des cadres juridiques tels que le règlement général européen sur la protection des données (RGPD) et le California Consumer Privacy Act (CCPA).
Dans le contexte des opérations d'apprentissage automatique (MLOps), la confidentialité des données n'est pas seulement une question de secret, mais aussi de contrôle et de consentement. Les principes clés sont les suivants :
Bien qu'ils soient souvent utilisés de manière interchangeable, ces termes représentent des concepts distincts dans le cycle de vie de l'IA.
La sécurité est l'outil qui permet d'assurer le respect de la vie privée. Par exemple, le cryptage est une mesure de sécurité qui contribue à satisfaire les exigences en matière de protection de la vie privée. de la vie privée. Des agences comme le National Institute of Standards and Technology (NIST) fournissent des des cadres permettant d'intégrer efficacement ces deux éléments.
La confidentialité des données est primordiale dans les secteurs où des informations personnelles sensibles sont traitées automatiquement.
Les développeurs utilisent diverses technologies d'amélioration de la confidentialité (PET) pour sécuriser les flux de travail de ML :
L'une des tâches les plus courantes en matière de protection de la vie privée consiste à brouiller les visages ou les régions sensibles dans les données visuelles. L'exemple suivant montre comment utiliser YOLO11 pour detect un objet (comme une personne) et appliquer un flou pour protéger son identité.
import cv2
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Read an image
img = cv2.imread("bus.jpg")
# Run object detection
results = model(img)
# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
x1, y1, x2, y2 = map(int, box)
# Extract the region of interest (ROI)
roi = img[y1:y2, x1:x2]
# Apply a Gaussian blur to the ROI to anonymize it
img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)
# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)