YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Çekişmeli Saldırılar

Yapay zeka sistemleri üzerindeki adversarial saldırıların etkisini, türlerini, gerçek dünya örneklerini ve yapay zeka güvenliğini artırmaya yönelik savunma stratejilerini keşfedin.

Adversarial saldırılar, kötü amaçlı, kasıtlı olarak tasarlanmış girdiler sağlayarak makine öğrenimi modellerini aldatmak için kullanılan bir tekniktir. Adversarial örnekler olarak bilinen bu girdiler, meşru verilerde ince değişiklikler yapılarak oluşturulur. Değişiklikler genellikle insan gözüyle algılanamayacak kadar küçüktür, ancak bir sinir ağının yüksek güvenle yanlış bir tahminde bulunmasına neden olabilir. Bu güvenlik açığı, özellikle güvenilirlik ve doğruluğun çok önemli olduğu kritik bilgisayarla görme uygulamalarında, yapay zeka sistemleri için önemli bir güvenlik endişesini temsil etmektedir.

Çekişmeli Saldırılar Nasıl Çalışır

Adversarial saldırılar, derin öğrenme modellerinin öğrenme ve karar verme şeklini istismar eder. Bir model, farklı veri kategorilerini ayıran bir "karar sınırı" belirleyerek kalıpları tanımayı öğrenir. Bir saldırganın amacı, bir yanlış sınıflandırmaya neden olacak şekilde, bir girdiyi bu sınırı aşacak şekilde değiştirmenin en etkili yolunu bulmaktır. Eklenen pertürbasyon rastgele bir gürültü değildir; modelin belirli zayıflıklarını istismar etmek için tasarlanmış dikkatlice hesaplanmış bir sinyaldir. Carnegie Mellon Üniversitesi gibi kurumlardan gelen araştırmalar, bu mekanizmalara dair derin bilgiler sağlamaktadır.

Rakip Saldırı Türleri

Saldırılar genellikle saldırganın hedef model hakkındaki bilgisine göre kategorize edilir.

  • Beyaz Kutu Saldırıları: Saldırgan, modelin mimarisi, parametreleri ve eğitim verileri hakkında tam bilgiye sahiptir. Bu tam erişim, bir modelin sağlamlığını test etmek için güçlü olan Hızlı Gradyan İşaret Metodu (FGSM) gibi oldukça etkili saldırıların oluşturulmasına olanak tanır.
  • Kara Kutu Saldırıları (Black-Box Attacks): Saldırganın model hakkında dahili bir bilgisi yoktur ve yalnızca girdi sağlayıp çıktılarını gözlemleyerek modeli sorgulayabilir. Bu saldırılar gerçek dünya senaryolarında daha gerçekçidir. Genellikle, bir modeli kandırmak için oluşturulan bir adversarial örneğin başka bir modeli de kandırma olasılığının yüksek olduğu aktarılabilirlik ilkesine dayanırlar; bu, Google AI'daki araştırmacılar tarafından araştırılan bir olgudur.

Gerçek Dünya Örnekleri

  1. Görüntü Tanımada Yanlış Sınıflandırma: İyi bilinen bir örnek, bir panda resmini doğru bir şekilde tanımlayan bir görüntü sınıflandırma modelini içerir. Fark edilemeyen bir düşmanca gürültü katmanı eklendikten sonra, aynı model görüntüyü yüksek bir kesinlikle bir gibon olarak yanlış sınıflandırır.
  2. Otonom Sistemleri Kandırmak: Araştırmacılar, bir dur işaretine basit etiketler yerleştirmenin, bir otonom araçtaki bir nesne algılama modelini kandırabileceğini başarıyla göstermiştir. Model, işareti "Hız Sınırı 45" işareti olarak yanlış tanımlayabilir; bu, otomotivdeki yapay zeka sistemleri için kritik bir hatadır. Bunlar fiziksel düşmanca saldırılar olarak bilinir.

Düşmanca Saldırılara Karşı Savunmalar

Modelleri bu tehditlere karşı korumak aktif bir araştırma alanıdır. Yaygın savunma stratejileri şunları içerir:

  • Çekişmeli Eğitim: Bu, şu anda en etkili savunmalardan biridir. Çekişmeli örnekler oluşturmayı ve bunları modelin eğitim kümesine dahil etmeyi içerir. Bir veri artırma biçimi olan bu işlem, modelin çekişmeli bozulmaları yok saymayı ve daha sağlam temsiller oluşturmayı öğrenmesine yardımcı olur.
  • Giriş Ön İşleme: Giriş görüntülerini modele beslemeden önce bulanıklaştırma, gürültü azaltma veya JPEG sıkıştırma gibi dönüşümler uygulamak, bazen düşmanca gürültüyü kaldırabilir veya azaltabilir.
  • Model Toplulukları Oluşturma (Model Ensembling): Birden fazla farklı modelin tahminlerini birleştirmek, bir saldırganın hepsini aynı anda yanıltan tek bir yanıltıcı örnek oluşturmasını zorlaştırabilir.

Çekişmeli Makine Öğreniminin Geleceği

Çekişmeli (adversarial) makine öğrenimi alanı genellikle sürekli bir "silahlanma yarışı" olarak tanımlanır; sürekli olarak yeni saldırılar ve savunmalar ortaya çıkmaktadır. Güvenilir yapay zeka oluşturmak, sağlam geliştirme ve test uygulamaları gerektirir. MITRE ATLAS for Adversarial Threat-informed Defense gibi çerçeveler, kuruluşların bu tehditleri anlamalarına ve bunlara hazırlanmalarına yardımcı olur. NIST gibi kuruluşlar ve Microsoft gibi şirketler aktif olarak savunma mekanizmaları araştırmaktadır. Açıklanabilir Yapay Zeka (XAI) ilkelerini dahil etmek, güvenlik açıklarını belirlemeye yardımcı olurken, güçlü Yapay Zeka etiği ilkelerine uymak, sorumlu model dağıtımını destekler. Sürekli araştırma ve dikkat, Ultralytics YOLO11 gibi modellerin gerçek dünya uygulamalarında güvenli ve güvenilir bir şekilde dağıtılabilmesini sağlar. Güvenli model geliştirme hakkında daha fazla bilgi edinmek için eğitimlerimizi keşfedin ve akıcı ve güvenli iş akışları için Ultralytics HUB gibi platformları kullanmayı düşünün.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı