Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Veri Gizliliği

Anonimleştirmeden federasyon öğrenimine kadar yapay zeka/makine öğrenimi için temel veri gizliliği tekniklerini keşfedin; güveni, uyumluluğu ve etik yapay zeka uygulamalarını sağlayın.

Veri gizliliği, kişisel bilgilerin toplanması, işlenmesi ve depolanması sırasında kişilerin kişisel bilgilerini korumak için kullanılan kılavuzları, uygulamaları ve teknik önlemleri kapsar. Yapay Zeka (AI) ve Makine Öğrenimi (ML) bağlamında, bu kavram çok önemlidir çünkü modern algoritmalar genellikle yüksek doğruluk elde etmek için büyük miktarda eğitim verisine ihtiyaç duyar. Bu verilerin kullanıcı gizliliğini tehlikeye atmaması veya hakları ihlal etmemesi, etik gelişim için temel bir gerekliliktir. Kuruluşlar, AI sistemlerinin uyumlu ve güvenilir olmasını sağlamak için, Avrupa'daki Genel Veri Koruma Yönetmeliği (GDPR) ve Amerika Birleşik Devletleri'ndeki Kaliforniya Tüketici Gizliliği Yasası (CCPA) gibi karmaşık bir düzenleme ortamında yol almalıdır.

AI Geliştirmede Temel İlkeler

Gizliliği AI yaşam döngüsüne entegre etmek genellikle "Tasarımdan İtibaren Gizlilik" olarak adlandırılır. Bu yaklaşım mühendislerin veri ön işleme ve model mimarisini ele alma biçimini etkiler .

  • Veri Azaltma: Sistemler, tanımlanan görev için gerekli olan belirli veri noktalarını toplamalı ve aşırı Kişisel Tanımlanabilir Bilgilerin (PII) depolanmasıyla ilişkili riski azaltmalıdır. .
  • Amaç Sınırlaması: Üretim verimliliğini artırmak gibi belirli bir uygulama için toplanan veriler, kullanıcının açık rızası olmadan ilgisiz analizler için yeniden kullanılmamalıdır.
  • Anonimleştirme: Bu teknik, veri kümelerinden doğrudan tanımlayıcıların çıkarılmasını içerir. Gelişmiş yöntemler araştırmacıların, belirli bireylere kadar izleri takip etmeden toplu eğilimler üzerinde veri analizi yapmalarına olanak tanır.
  • Şeffaflık: AI etiğinin temel direği olan şeffaflık, kuruluşların kullanıcı verilerinin nasıl kullanıldığını açıkça iletmesini ve bilinçli karar vermeyi teşvik etmesini gerektirir.

Gerçek Dünya Uygulamaları

Gizliliğin korunması, hassas kişisel verilerin gelişmiş otomasyon ve bilgisayar görüşü (CV) ile etkileşime girdiği sektörlerde çok önemlidir.

Sağlık Teşhis Cihazları

Tıbbi görüntü analizi alanında, hastaneler radyologların X-ray ve MRI görüntülerinden hastalıkları teşhis etmelerine yardımcı olmak için yapay zekayı kullanmaktadır. Ancak, bu görüntüler Sağlık Sigortası Taşınabilirlik ve Sorumluluk Yasası (HIPAA) gibi sıkı yasalarla korunmaktadır. Tümör tespiti gibi görevler için bir model eğitilmeden önce , DICOM dosyalarından hasta meta verileri silinir, böylece araştırmacılar hasta kimliklerini ifşa etmeden sağlık hizmetlerinde yapay zekayı kullanabilirler.

Akıllı Şehirler ve Gözetim

Kentsel planlama girişimleri, trafik yönetimive kamu güvenliği için giderek daha fazla nesne algılamaya güvenmektedir. Güvenlik ile bireysel anonimlik arasında denge sağlamak için, sistemler yayaları ve araçları gerçek zamanlı olarak tanımlayabilir ve yüzlere ve plakalara anında bulanıklaştırma filtreleri uygulayabilir. Bu, akıllı şehir girişimlerinin kamu alanlarında vatandaşların mahremiyetine saygı gösterirken, aynı zamanda yararlı trafik akışı verilerini toplamalarını sağlar.

Teknik Uygulama: Gerçek Zamanlı Anonimleştirme

Bilgisayar görüşünde gizlilik için yaygın bir teknik uygulama, çıkarım sırasında hassas nesnelerin redaksiyonudur. Aşağıdaki Python , Ultralytics modelini kullanarak bir görüntüdeki detect ve algılanan bölgelere Gauss bulanıklığı uygulamayı gösterir.

import cv2
from ultralytics import YOLO

# Load the YOLO26 model (latest generation for efficiency)
model = YOLO("yolo26n.pt")
img = cv2.imread("street.jpg")

# Perform detection
results = model(img)

# Blur detected persons (class ID 0)
for box in results[0].boxes.data:
    if int(box[5]) == 0:  # Class 0 is 'person'
        x1, y1, x2, y2 = map(int, box[:4])
        # Apply Gaussian blur to the region of interest (ROI)
        img[y1:y2, x1:x2] = cv2.GaussianBlur(img[y1:y2, x1:x2], (51, 51), 0)

Veri Gizliliğini İlgili Terimlerden Ayırmak

Sık sık birlikte tartışılsa da, veri gizliliğini Makine Öğrenimi Operasyonları (MLOps) alanındaki benzer kavramlardan ayırmak önemlidir.

  • Veri Gizliliği ve Veri Güvenliği: Gizlilik, verilere kimlerin hangi amaçla erişebileceğini düzenleyen haklar ve politikaları ifade eder. Güvenlik ise, verileri yetkisiz erişimden veya düşmanca saldırılardan korumak için kullanılan teknik mekanizmaları (şifreleme ve güvenlik duvarları gibi) ifade eder. Güvenlik, gizliliği sağlamak için kullanılan bir araçtır.
  • Veri Gizliliği ve Farklılaştırılmış Gizlilik: Veri gizliliği genel bir hedeftir. Farklılaştırılmış gizlilik ise veri setine istatistiksel gürültü ekleyen belirli bir matematiksel tanım ve tekniktir. Bu teknik, algoritmanın çıktısının herhangi bir bireyin verilerinin girdiye dahil edilip edilmediğini ortaya çıkaramamasını sağlar ve Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) araştırmacıları tarafından sıklıkla incelenen bir tekniktir.

Gelişen Teknolojiler

Artan gizlilik taleplerini karşılamak için, yeni metodolojiler modellerin öğrenme şeklini yeniden şekillendiriyor.

  • Federatif Öğrenme: Bu merkezi olmayan yaklaşım, modellerin yerel cihazlarda (akıllı telefonlar gibi) eğitilmesine ve öğrenilen model ağırlıklarını, ham verilerin kendisi yerine merkezi bir sunucuya geri göndermesine olanak tanır.
  • Sentetik Veriler: Gerçek dünya verilerinin istatistiksel özelliklerini taklit eden yapay veri kümeleri oluşturarak, mühendisler gerçek kullanıcı bilgilerini hiç ifşa etmeden sağlam modeller eğitebilirler. Bu, veri kümesi önyargısını azaltmaya yardımcı olur ve kullanıcı kimliğini korur.

Veri kümelerini güvenli bir şekilde yönetmek isteyen ekipler için Ultralytics , modern veri yönetimi standartlarına uyarak modellerin açıklanması, eğitilmesi ve dağıtılması için araçlar sunar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın