Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Makine Öğreniminin Geri Alınması

Hassas eğitim verilerini seçici bir şekilde silmek için makine öğreniminin geri alınmasını keşfedin. Ultralytics ile GDPR uyumluluğunu ve veri gizliliğini nasıl sağlayacağınızı öğrenin.

Makine öğreniminin yeni gelişen bir alt dalı olan makine unutma, eğitilmiş bir modelden eğitim verilerinin belirli bir alt kümesinin etkisini ortadan kaldırmaya odaklanır. Modellerin muazzam miktarda bilgi işlediği günümüzde, verileri seçici bir şekilde "unutma" yeteneği hayati önem kazanmıştır. Bu süreç, geliştiricilerin tüm mimariyi sıfırdan yeniden eğitmek zorunda kalmadan belirli veri noktalarını ayıklamasına olanak tanıyarak, önemli ölçüde zaman ve hesaplama yükünden tasarruf sağlar.

Bu teknolojinin ardındaki temel itici güç veri gizliliğidir. GDPR’nin “Unutulma Hakkı” gibi sıkı veri koruma düzenlemeleri ve zorunluluklarının ortaya çıkmasıyla birlikte, kullanıcılar kişisel bilgilerinin silinmesini talep etme konusunda yasal hakka sahip hale gelmiştir. Makine öğreniminin geri alınması, bu verileri derin öğrenme modellerinden güvenli bir şekilde temizlemenin bir yolunu sunarak, modelin genel kullanışlılığını korurken mevzuata uyumu da sağlar.

Makine Öğreniminin Geri Alınması Nasıl İşler?

Geleneksel gradyan iniş mekanizmaları, eğitim verilerini ağın ağırlıkları ile derinlemesine iç içe geçirir. Bu nedenle, veritabanından orijinal görüntü veya metin dosyasını silmek, öğrenilmiş kalıpları modelin kendisinden ortadan kaldırmaz. Makine öğreniminin silinmesi teknikleri genel olarak iki kategoriye ayrılır: kesin öğrenmenin silinmesi ve yaklaşık öğrenmenin silinmesi. Kesin öğrenmeyi unutma, nihai modelin unutulan veriler olmadan tamamen eğitilmiş bir modelle istatistiksel olarak özdeş olmasını garanti eder; bu genellikle akıllı veri kümesi bölümleme yoluyla elde edilir. Verimli öğrenmeyi unutma algoritmaları üzerine son zamanlarda yapılan çalışmalarda sıklıkla tartışılan yaklaşık öğrenmeyi unutma, modelin parametrelerini ayarlamak ve hedef verilerin etkisini geriye dönük olarak maskelemek için matematiksel müdahaleler kullanır.

Makine öğreniminin unutulmasını sürekli öğrenmeden ayırmak önemlidir. Sürekli öğrenme, katrastrofik unutma sorunu yaşamadan yeni bilgileri aşamalı olarak eklemeyi amaçlarken, öğrenmenin unutulması bilginin kasıtlı ve hedefli bir şekilde silinmesidir. Algoritmik adalet konusuna odaklanan kuruluşlar da, eğitim sürecinden sonra zararlı veya çarpık verileri temizleyerek yapay zekadaki önyargıları düzeltmek için öğrenmenin unutulmasını kullanır.

Gerçek Dünya Uygulamaları

Öğrenilenleri silme algoritmaları, teorik yapay zeka güvenliği araştırmalarından çeşitli sektörlerdeki pratik uygulamalara hızla geçiş yaptı.

  • Sağlık Hizmetleri ve Tıbbi Görüntüleme: Tıbbi görüntü analizinde, hasta onayı herhangi bir zamanda geri alınabilir. Bir hasta röntgen görüntülerinin sistemden kaldırılmasını talep ederse, hastaneler “unlearning” yöntemini kullanarak tanı modelinden o hastaya özgü fizyolojik kalıpları çıkarabilir; bu işlem, sistemin diğer hastalarda hastalıkları detect yeteneğini etkilemez.
  • Gözetim ve Güvenlik: Modern akıllı gözetim sistemlerinde, kameralar istemeden de olsa araç plakaları veya yüzler gibi kişisel tanımlayıcı bilgileri (PII) yakalayabilir. Unlearning tekniği, geliştiricilerin gizlilik koruyan AI tekniklerine uymak amacıyla, devreye alınmış bir bilgisayar görme modelinden bu tür PII'leri geriye dönük olarak kaldırmasına olanak tanır.

Öğrendiklerinden Vazgeçme Stratejilerinin Uygulanması

Makine öğreniminin geri alınmasına yönelik zorluklar kapsamında, doğrudan ve tek adımlı öğrenmenin geri alınması API’leri hâlâ aktif bir araştırma alanı olsa da, uygulayıcılar genellikle temizlenmiş bir veri kümesini derleyip hızlı bir yeniden eğitim döngüsü başlatarak öğrenmenin geri alınmasına ilişkin kesin bir referans noktası elde ederler. Bulut tabanlı veri yönetimi için Ultralytics kullandığınızda, iptal edilen verileri hariç tutmak üzere bir veri kümesinin sürümünü kolayca oluşturabilirsiniz.

Aşağıda, temizlenmiş bir veri kümesinde Ultralytics yeniden eğiterek "unlearning" (öğrenilenlerin silinmesi) yaklaşımının temelini gösteren kısa bir Python yer almaktadır:

from ultralytics import YOLO

# Load an existing, pre-trained Ultralytics YOLO26 model
model = YOLO("yolo26n.pt")

# Naive exact unlearning: perform efficient retraining on a sanitized dataset.
# The 'sanitized_data.yaml' excludes the specific sensitive data to be "unlearned"
results = model.train(data="sanitized_data.yaml", epochs=50, device="cuda")

Sinir ağlarında model optimizasyonu ve sağlamlık konusundakitalep arttıkça, "unlearning" standart bir gereklilik haline geliyor. İster karmaşık görüntü sınıflandırma iş akışlarını yönetiyor olun, ister modelleri uç cihazlara dağıtıyor olun, verileri sorumlu bir şekilde unutmayı sağlayan mekanizmaları entegre etmek, AI sistemlerinizin mevzuata uygun, adil ve güvenilir kalmasını sağlar.

Ultralytics YOLO ile güçlenin

Projeleriniz için gelişmiş yapay zeka vizyonu edinin. Hedeflerinize uygun lisansı bugün bulun.

Lisanslama seçeneklerini keşfedin