Yapay Zeka Güvenliği
Yapay zeka sistemlerinden kaynaklanan istenmeyen zararları önlemek için hayati önem taşıyan yapay zeka güvenliği hakkında bilgi edinin. Temel dayanaklarını, gerçek dünya uygulamalarını ve sorumlu yapay zekadaki rolünü keşfedin.
AI Güvenliği,
Yapay Zeka (AI) sistemlerinin
güvenilir, öngörülebilir ve faydalı bir şekilde çalışmasını sağlamaya odaklanan çok disiplinli bir alandır. Sistemleri dış saldırılardan koruyan siber güvenlikten farklı olarak,
AI Güvenliği, sistemin tasarımında ve çalışmasında var olan riskleri ele alır. Bu,
hedef uyumsuzluğundan, yeni ortamlarda sağlamlık eksikliğinden veya
Derin Öğrenme (DL) genellemesinde yaşanan arızalardan kaynaklanan istenmeyen sonuçların önlenmesini içerir. Modeller
daha otonom hale geldikçe,
İnsanla Uyumlu Yapay Zeka Merkezi gibi kuruluşlardaki araştırmacılar, bu teknolojilerin
insan niyetleri ve güvenlik standartlarıyla uyumlu olmasını sağlamak için çalışmaktadır.
Güvenli Yapay Zekanın Temel Direkleri
Güvenli bir sistem oluşturmak, basit doğruluk ölçütlerinin ötesine geçen çeşitli teknik zorlukların ele alınmasını gerektirir. Bu
temel unsurlar,
Makine Öğrenimi (ML) modellerinin karmaşık, gerçek dünya senaryolarında kullanıldığında bile
kontrol altında kalmasını sağlar.
-
Sağlamlık: Güvenli bir model, bozuk girdilerle veya ortamdaki değişikliklerle karşı karşıya kaldığında performansını korumalıdır.
Bu, girdi verilerinin ince manipülasyonlarının modeli yüksek güvenilirlikli hatalar yapmaya yönlendirebileceği
karşıt saldırılara karşı savunmayı da içerir.
.
-
Hizalama: Bu ilke, bir AI'nın hedeflerinin tasarımcının gerçek niyetiyle uyumlu olmasını sağlar. Uyumsuzluk
genellikle
Pekiştirme Öğreniminde, bir sistem
ödül işlevini "oynamayı" öğrendiğinde ortaya çıkar—örneğin, temizlik robotunun dağınıklığı daha hızlı temizlemek için bir vazoyu kırması gibi.
İnsan Geri Bildiriminden Pekiştirme Öğrenimi (RLHF)
gibi teknikler
bunu azaltmak için kullanılır.
-
Yorumlanabilirlik: Açıklanabilir Yapay Zeka (XAI) olarak da bilinen bu kavram,
"kara kutu" modellerinde şeffaflık yaratmayı içerir. Özellik haritalarının görselleştirilmesi,
mühendislerin karar verme sürecini anlamalarını sağlar ve modelin yanlış korelasyonlara dayanmamasını garanti eder.
Yorumlanabilirlik, yapay zekanın kararlarının neden ve nasıl alındığını anlamak için önemlidir. Bu, kullanıcıların yapay zekanın kararlarını sorgulayabilmelerini ve yapay zekanın kararlarının doğru olup olmadığını değerlendirebilmelerini sağlar.
-
İzleme: Veri sapmasını detect
için sürekli
model izleme şarttır. Gerçek dünya verileri
eğitim verilerinden önemli ölçüde sapmaya başlarsa,
güvenlik protokolleri uyarıları veya yedekleme
mekanizmalarını tetiklemelidir.
Gerçek Dünya Uygulamaları
AI Güvenliği, algoritmik hataların fiziksel zarara veya önemli ekonomik kayıplara yol açabileceği yüksek riskli alanlarda çok önemlidir.
.
-
Otonom Araçlar: Otomotiv sektöründe
yapay zeka alanında, güvenlik çerçeveleri bir
aracın belirsizliğe nasıl tepki vereceğini tanımlar. Bir
nesne algılama modeli bir engeli yüksek güvenilirlikle
tanımlayamazsa, sistem tahminde bulunmak yerine
frenleme gibi güvenli bir duruma geçmelidir.
NHTSA Otomatik Araçlar kılavuzları
bu arıza emniyetli mekanizmaları vurgulamaktadır.
-
Tıbbi Teşhis: Sağlık hizmetlerinde
AI uygularken, güvenlik kritik teşhislerde
yanlış negatif sonuçları en aza indirmeyi içerir. Sistemler genellikle potansiyel durumların gözden kaçmamasını sağlamak için yüksek
geri çağırma oran ına ayarlanır ve
doktorlar için etkili bir şekilde "ikinci görüş" işlevi görür. FDA Dijital Sağlık Merkezi gibi düzenleyici kurumlar,
tıbbi cihaz olarak yazılım (SaMD) için
sıkı standartlar belirler.
Güvenlik Eşiklerinin Uygulanması
Bilgisayar görüşünde en temel güvenlik mekanizmalarından biri, güven eşiklerinin kullanılmasıdır. Çıkarım sırasında
düşük olasılıklı tahminleri filtreleyerek,
geliştiriciler sistemlerin zayıf bilgilere göre hareket etmesini önler.
Aşağıdaki örnek, Ultralytics kullanarak bir güvenlik filtresinin nasıl uygulanacağını ve yalnızca güvenilir tespitlerin işlenmesini nasıl sağladığını göstermektedir.
Ultralytics YOLO26, yalnızca güvenilir tespitlerin işlenmesini sağlar.
from ultralytics import YOLO
# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")
# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)
# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")
Yapay Zeka Güvenliği - Yapay Zeka Etiği Karşılaştırması
Bu terimler genellikle birbirinin yerine kullanılır, ancak sorumlu yapay zekanın farklı yönlerini ele alırlar.
-
AI Güvenliği teknik bir mühendislik disiplinidir. "Bu sistem kazalara neden olmadan doğru bir şekilde çalışacak mı?" sorusunu sorar.
Model halüsinasyonu ve pekiştirmeli öğrenmede güvenli keşif gibi sorunları ele alır.
-
AI Etiği sosyo-teknik bir
çerçevedir. "Bu sistemi kurmalı mıyız ve bu adil mi?" sorusunu sorar.
AB AI Yasası'nda belirtildiği gibi,
algoritmik önyargı, gizlilik hakları ve
faydaların adil dağılımı gibi konulara odaklanır.
Geleceğe Bakış
Endüstri
Yapay Genel Zeka (AGI) yönünde ilerledikçe, güvenlik araştırmaları giderek daha kritik hale geliyor. Kuruluşlar,
Ultralytics kullanarak veri setlerini yönetebilir ve
model dağıtımını denetleyebilir, böylece AI çözümlerinin
ömürleri boyunca sağlam, şeffaf ve güvenlik standartlarına uygun olmasını sağlayabilirler.