Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Yapay Zeka Güvenliği

Yapay zeka sistemlerinden kaynaklanan istenmeyen zararları önlemek için hayati önem taşıyan yapay zeka güvenliği hakkında bilgi edinin. Temel dayanaklarını, gerçek dünya uygulamalarını ve sorumlu yapay zekadaki rolünü keşfedin.

AI Güvenliği, Yapay Zeka (AI) sistemlerinin güvenilir, öngörülebilir ve faydalı bir şekilde çalışmasını sağlamaya odaklanan çok disiplinli bir alandır. Sistemleri dış saldırılardan koruyan siber güvenlikten farklı olarak, AI Güvenliği, sistemin tasarımında ve çalışmasında var olan riskleri ele alır. Bu, hedef uyumsuzluğundan, yeni ortamlarda sağlamlık eksikliğinden veya Derin Öğrenme (DL) genellemesinde yaşanan arızalardan kaynaklanan istenmeyen sonuçların önlenmesini içerir. Modeller daha otonom hale geldikçe, İnsanla Uyumlu Yapay Zeka Merkezi gibi kuruluşlardaki araştırmacılar, bu teknolojilerin insan niyetleri ve güvenlik standartlarıyla uyumlu olmasını sağlamak için çalışmaktadır.

Güvenli Yapay Zekanın Temel Direkleri

Güvenli bir sistem oluşturmak, basit doğruluk ölçütlerinin ötesine geçen çeşitli teknik zorlukların ele alınmasını gerektirir. Bu temel unsurlar, Makine Öğrenimi (ML) modellerinin karmaşık, gerçek dünya senaryolarında kullanıldığında bile kontrol altında kalmasını sağlar.

  • Sağlamlık: Güvenli bir model, bozuk girdilerle veya ortamdaki değişikliklerle karşı karşıya kaldığında performansını korumalıdır. Bu, girdi verilerinin ince manipülasyonlarının modeli yüksek güvenilirlikli hatalar yapmaya yönlendirebileceği karşıt saldırılara karşı savunmayı da içerir. .
  • Hizalama: Bu ilke, bir AI'nın hedeflerinin tasarımcının gerçek niyetiyle uyumlu olmasını sağlar. Uyumsuzluk genellikle Pekiştirme Öğreniminde, bir sistem ödül işlevini "oynamayı" öğrendiğinde ortaya çıkar—örneğin, temizlik robotunun dağınıklığı daha hızlı temizlemek için bir vazoyu kırması gibi. İnsan Geri Bildiriminden Pekiştirme Öğrenimi (RLHF) gibi teknikler bunu azaltmak için kullanılır.
  • Yorumlanabilirlik: Açıklanabilir Yapay Zeka (XAI) olarak da bilinen bu kavram, "kara kutu" modellerinde şeffaflık yaratmayı içerir. Özellik haritalarının görselleştirilmesi, mühendislerin karar verme sürecini anlamalarını sağlar ve modelin yanlış korelasyonlara dayanmamasını garanti eder. Yorumlanabilirlik, yapay zekanın kararlarının neden ve nasıl alındığını anlamak için önemlidir. Bu, kullanıcıların yapay zekanın kararlarını sorgulayabilmelerini ve yapay zekanın kararlarının doğru olup olmadığını değerlendirebilmelerini sağlar.
  • İzleme: Veri sapmasını detect için sürekli model izleme şarttır. Gerçek dünya verileri eğitim verilerinden önemli ölçüde sapmaya başlarsa, güvenlik protokolleri uyarıları veya yedekleme mekanizmalarını tetiklemelidir.

Gerçek Dünya Uygulamaları

AI Güvenliği, algoritmik hataların fiziksel zarara veya önemli ekonomik kayıplara yol açabileceği yüksek riskli alanlarda çok önemlidir. .

  1. Otonom Araçlar: Otomotiv sektöründe yapay zeka alanında, güvenlik çerçeveleri bir aracın belirsizliğe nasıl tepki vereceğini tanımlar. Bir nesne algılama modeli bir engeli yüksek güvenilirlikle tanımlayamazsa, sistem tahminde bulunmak yerine frenleme gibi güvenli bir duruma geçmelidir. NHTSA Otomatik Araçlar kılavuzları bu arıza emniyetli mekanizmaları vurgulamaktadır.
  2. Tıbbi Teşhis: Sağlık hizmetlerinde AI uygularken, güvenlik kritik teşhislerde yanlış negatif sonuçları en aza indirmeyi içerir. Sistemler genellikle potansiyel durumların gözden kaçmamasını sağlamak için yüksek geri çağırma oran ına ayarlanır ve doktorlar için etkili bir şekilde "ikinci görüş" işlevi görür. FDA Dijital Sağlık Merkezi gibi düzenleyici kurumlar, tıbbi cihaz olarak yazılım (SaMD) için sıkı standartlar belirler.

Güvenlik Eşiklerinin Uygulanması

Bilgisayar görüşünde en temel güvenlik mekanizmalarından biri, güven eşiklerinin kullanılmasıdır. Çıkarım sırasında düşük olasılıklı tahminleri filtreleyerek, geliştiriciler sistemlerin zayıf bilgilere göre hareket etmesini önler.

Aşağıdaki örnek, Ultralytics kullanarak bir güvenlik filtresinin nasıl uygulanacağını ve yalnızca güvenilir tespitlerin işlenmesini nasıl sağladığını göstermektedir. Ultralytics YOLO26, yalnızca güvenilir tespitlerin işlenmesini sağlar.

from ultralytics import YOLO

# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")

# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)

# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")

Yapay Zeka Güvenliği - Yapay Zeka Etiği Karşılaştırması

Bu terimler genellikle birbirinin yerine kullanılır, ancak sorumlu yapay zekanın farklı yönlerini ele alırlar.

  • AI Güvenliği teknik bir mühendislik disiplinidir. "Bu sistem kazalara neden olmadan doğru bir şekilde çalışacak mı?" sorusunu sorar. Model halüsinasyonu ve pekiştirmeli öğrenmede güvenli keşif gibi sorunları ele alır.
  • AI Etiği sosyo-teknik bir çerçevedir. "Bu sistemi kurmalı mıyız ve bu adil mi?" sorusunu sorar. AB AI Yasası'nda belirtildiği gibi, algoritmik önyargı, gizlilik hakları ve faydaların adil dağılımı gibi konulara odaklanır.

Geleceğe Bakış

Endüstri Yapay Genel Zeka (AGI) yönünde ilerledikçe, güvenlik araştırmaları giderek daha kritik hale geliyor. Kuruluşlar, Ultralytics kullanarak veri setlerini yönetebilir ve model dağıtımını denetleyebilir, böylece AI çözümlerinin ömürleri boyunca sağlam, şeffaf ve güvenlik standartlarına uygun olmasını sağlayabilirler.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın