Anonimleştirmeden federasyon öğrenimine kadar yapay zeka/makine öğrenimi için temel veri gizliliği tekniklerini keşfedin; güveni, uyumluluğu ve etik yapay zeka uygulamalarını sağlayın.
Veri gizliliği, kişisel bilgilerin toplanması, işlenmesi ve depolanması sırasında kişilerin kişisel bilgilerini korumak için kullanılan kılavuzları, uygulamaları ve teknik önlemleri kapsar. Yapay Zeka (AI) ve Makine Öğrenimi (ML) bağlamında, bu kavram çok önemlidir çünkü modern algoritmalar genellikle yüksek doğruluk elde etmek için büyük miktarda eğitim verisine ihtiyaç duyar. Bu verilerin kullanıcı gizliliğini tehlikeye atmaması veya hakları ihlal etmemesi, etik gelişim için temel bir gerekliliktir. Kuruluşlar, AI sistemlerinin uyumlu ve güvenilir olmasını sağlamak için, Avrupa'daki Genel Veri Koruma Yönetmeliği (GDPR) ve Amerika Birleşik Devletleri'ndeki Kaliforniya Tüketici Gizliliği Yasası (CCPA) gibi karmaşık bir düzenleme ortamında yol almalıdır.
Gizliliği AI yaşam döngüsüne entegre etmek genellikle "Tasarımdan İtibaren Gizlilik" olarak adlandırılır. Bu yaklaşım mühendislerin veri ön işleme ve model mimarisini ele alma biçimini etkiler .
Gizliliğin korunması, hassas kişisel verilerin gelişmiş otomasyon ve bilgisayar görüşü (CV) ile etkileşime girdiği sektörlerde çok önemlidir.
Tıbbi görüntü analizi alanında, hastaneler radyologların X-ray ve MRI görüntülerinden hastalıkları teşhis etmelerine yardımcı olmak için yapay zekayı kullanmaktadır. Ancak, bu görüntüler Sağlık Sigortası Taşınabilirlik ve Sorumluluk Yasası (HIPAA) gibi sıkı yasalarla korunmaktadır. Tümör tespiti gibi görevler için bir model eğitilmeden önce , DICOM dosyalarından hasta meta verileri silinir, böylece araştırmacılar hasta kimliklerini ifşa etmeden sağlık hizmetlerinde yapay zekayı kullanabilirler.
Kentsel planlama girişimleri, trafik yönetimive kamu güvenliği için giderek daha fazla nesne algılamaya güvenmektedir. Güvenlik ile bireysel anonimlik arasında denge sağlamak için, sistemler yayaları ve araçları gerçek zamanlı olarak tanımlayabilir ve yüzlere ve plakalara anında bulanıklaştırma filtreleri uygulayabilir. Bu, akıllı şehir girişimlerinin kamu alanlarında vatandaşların mahremiyetine saygı gösterirken, aynı zamanda yararlı trafik akışı verilerini toplamalarını sağlar.
Bilgisayar görüşünde gizlilik için yaygın bir teknik uygulama, çıkarım sırasında hassas nesnelerin redaksiyonudur. Aşağıdaki Python , Ultralytics modelini kullanarak bir görüntüdeki detect ve algılanan bölgelere Gauss bulanıklığı uygulamayı gösterir.
import cv2
from ultralytics import YOLO
# Load the YOLO26 model (latest generation for efficiency)
model = YOLO("yolo26n.pt")
img = cv2.imread("street.jpg")
# Perform detection
results = model(img)
# Blur detected persons (class ID 0)
for box in results[0].boxes.data:
if int(box[5]) == 0: # Class 0 is 'person'
x1, y1, x2, y2 = map(int, box[:4])
# Apply Gaussian blur to the region of interest (ROI)
img[y1:y2, x1:x2] = cv2.GaussianBlur(img[y1:y2, x1:x2], (51, 51), 0)
Sık sık birlikte tartışılsa da, veri gizliliğini Makine Öğrenimi Operasyonları (MLOps) alanındaki benzer kavramlardan ayırmak önemlidir.
Artan gizlilik taleplerini karşılamak için, yeni metodolojiler modellerin öğrenme şeklini yeniden şekillendiriyor.
Veri kümelerini güvenli bir şekilde yönetmek isteyen ekipler için Ultralytics , modern veri yönetimi standartlarına uyarak modellerin açıklanması, eğitilmesi ve dağıtılması için araçlar sunar.
