Hassas eğitim verilerini seçici bir şekilde silmek için makine öğreniminin geri alınmasını keşfedin. Ultralytics ile GDPR uyumluluğunu ve veri gizliliğini nasıl sağlayacağınızı öğrenin.
Makine öğreniminin yeni gelişen bir alt dalı olan makine unutma, eğitilmiş bir modelden eğitim verilerinin belirli bir alt kümesinin etkisini ortadan kaldırmaya odaklanır. Modellerin muazzam miktarda bilgi işlediği günümüzde, verileri seçici bir şekilde "unutma" yeteneği hayati önem kazanmıştır. Bu süreç, geliştiricilerin tüm mimariyi sıfırdan yeniden eğitmek zorunda kalmadan belirli veri noktalarını ayıklamasına olanak tanıyarak, önemli ölçüde zaman ve hesaplama yükünden tasarruf sağlar.
Bu teknolojinin ardındaki temel itici güç veri gizliliğidir. GDPR’nin “Unutulma Hakkı” gibi sıkı veri koruma düzenlemeleri ve zorunluluklarının ortaya çıkmasıyla birlikte, kullanıcılar kişisel bilgilerinin silinmesini talep etme konusunda yasal hakka sahip hale gelmiştir. Makine öğreniminin geri alınması, bu verileri derin öğrenme modellerinden güvenli bir şekilde temizlemenin bir yolunu sunarak, modelin genel kullanışlılığını korurken mevzuata uyumu da sağlar.
Geleneksel gradyan iniş mekanizmaları, eğitim verilerini ağın ağırlıkları ile derinlemesine iç içe geçirir. Bu nedenle, veritabanından orijinal görüntü veya metin dosyasını silmek, öğrenilmiş kalıpları modelin kendisinden ortadan kaldırmaz. Makine öğreniminin silinmesi teknikleri genel olarak iki kategoriye ayrılır: kesin öğrenmenin silinmesi ve yaklaşık öğrenmenin silinmesi. Kesin öğrenmeyi unutma, nihai modelin unutulan veriler olmadan tamamen eğitilmiş bir modelle istatistiksel olarak özdeş olmasını garanti eder; bu genellikle akıllı veri kümesi bölümleme yoluyla elde edilir. Verimli öğrenmeyi unutma algoritmaları üzerine son zamanlarda yapılan çalışmalarda sıklıkla tartışılan yaklaşık öğrenmeyi unutma, modelin parametrelerini ayarlamak ve hedef verilerin etkisini geriye dönük olarak maskelemek için matematiksel müdahaleler kullanır.
Makine öğreniminin unutulmasını sürekli öğrenmeden ayırmak önemlidir. Sürekli öğrenme, katrastrofik unutma sorunu yaşamadan yeni bilgileri aşamalı olarak eklemeyi amaçlarken, öğrenmenin unutulması bilginin kasıtlı ve hedefli bir şekilde silinmesidir. Algoritmik adalet konusuna odaklanan kuruluşlar da, eğitim sürecinden sonra zararlı veya çarpık verileri temizleyerek yapay zekadaki önyargıları düzeltmek için öğrenmenin unutulmasını kullanır.
Öğrenilenleri silme algoritmaları, teorik yapay zeka güvenliği araştırmalarından çeşitli sektörlerdeki pratik uygulamalara hızla geçiş yaptı.
Makine öğreniminin geri alınmasına yönelik zorluklar kapsamında, doğrudan ve tek adımlı öğrenmenin geri alınması API’leri hâlâ aktif bir araştırma alanı olsa da, uygulayıcılar genellikle temizlenmiş bir veri kümesini derleyip hızlı bir yeniden eğitim döngüsü başlatarak öğrenmenin geri alınmasına ilişkin kesin bir referans noktası elde ederler. Bulut tabanlı veri yönetimi için Ultralytics kullandığınızda, iptal edilen verileri hariç tutmak üzere bir veri kümesinin sürümünü kolayca oluşturabilirsiniz.
Aşağıda, temizlenmiş bir veri kümesinde Ultralytics yeniden eğiterek "unlearning" (öğrenilenlerin silinmesi) yaklaşımının temelini gösteren kısa bir Python yer almaktadır:
from ultralytics import YOLO
# Load an existing, pre-trained Ultralytics YOLO26 model
model = YOLO("yolo26n.pt")
# Naive exact unlearning: perform efficient retraining on a sanitized dataset.
# The 'sanitized_data.yaml' excludes the specific sensitive data to be "unlearned"
results = model.train(data="sanitized_data.yaml", epochs=50, device="cuda")
Sinir ağlarında model optimizasyonu ve sağlamlık konusundakitalep arttıkça, "unlearning" standart bir gereklilik haline geliyor. İster karmaşık görüntü sınıflandırma iş akışlarını yönetiyor olun, ister modelleri uç cihazlara dağıtıyor olun, verileri sorumlu bir şekilde unutmayı sağlayan mekanizmaları entegre etmek, AI sistemlerinizin mevzuata uygun, adil ve güvenilir kalmasını sağlar.