Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Yapay Zeka Güvenliği

Yapay zeka sistemlerinden kaynaklanan istenmeyen zararları önlemek için hayati önem taşıyan yapay zeka güvenliği hakkında bilgi edinin. Temel dayanaklarını, gerçek dünya uygulamalarını ve sorumlu yapay zekadaki rolünü keşfedin.

Yapay Zeka Güvenliği, Yapay Zeka Güvenliği içinde özel bir alandır. Yapay Zeka (AI) aşağıdakilere odaklanmıştır YZ sistemlerinin güvenilir, öngörülebilir ve istenmeyen zararlara yol açmadan çalışmasını sağlamak. As derin öğrenme (DL) modelleri daha otonom hale geliyor ve kritik altyapıya entegre edildiğinde, sistem arızalarının potansiyel sonuçları önemli ölçüde artmaktadır. Bu YZ güvenliğinin birincil amacı, teknik aksaklıklardan, beklenmedik durumlardan kaynaklanan riskleri belirlemek, analiz etmek ve azaltmaktır. davranışlar veya YZ'nin hedefleri ile insan değerleri arasındaki uyumsuzluk. Bu disiplin geniş bir yelpazeyi kapsar uygulamaları, titiz model testlerinden Sistem davranışı için matematiksel garantilerin geliştirilmesi.

Yapay Zeka Güvenliğinin Temel Unsurları

Güvenilir sistemler oluşturmak için araştırmacılar ve mühendisler aşağıdakileri sağlayan çeşitli temel unsurlara odaklanmaktadır makine öğrenimi (ML) modellerinin doğru çalışması değişen koşullar altında.

  • Sağlamlık: Sağlam bir sistem, beklenmedik verilerle karşılaştığında bile performansını korumalı veya çekişmeli koşullar. Bu, aşağıdakilere karşı savunmayı içerir kötü niyetli girdilerin olduğu düşmanca saldırılar bir modeli kandırmak için hazırlanmıştır. Örneğin, bir bilgisayarla görme (CV) sistemi sadece bir etiket veya kötü ışıklandırma nedeniyle bir dur işaretini yanlış sınıflandırabilir.
  • Hizalama: Bu, hedefleri doğru bir şekilde yansıtan YZ sistemleri tasarlama zorluğunu ifade eder insan niyetleri. Bir model, yüksek bir puan elde etmek için bir "kısayol" bulursa yanlış hizalama meydana gelebilir. güvenlik kısıtlamalarını ihlal ederken kayıp fonksiyonu İnsan Uyumlu Yapay Zeka Merkezi tarafından kapsamlı bir şekilde incelenen kavram.
  • Yorumlanabilirlik: Olarak da bilinir Açıklanabilir Yapay Zeka (XAI), bu ilke insanların anlayabileceği modeller yaratmayı vurgulamaktadır. Bir karar verme sistemi başarısız olursa, mühendisler aşağıdakileri yapabilmelidir dahili model ağırlıklarını veya aktivasyonunu inceleyin hatayı teşhis etmek ve tekrarlanmasını önlemek için haritalar.
  • İzleme: Sürekli detect etmek için model izleme şarttır veri sürüklenmesi, bir modelin karşılaştığı verilerin gerçek dünya eğitim verilerinden farklıdır, potansiyel olarak güvenli olmayan tahminlere yol açabilir.

Gerçek Dünya Uygulamaları

Yapay zeka güvenliği sadece teorik bir konu değildir; bu, yapay zekanın yaygınlaştırılması için kritik bir gerekliliktir Otomotiv ve sağlık sektörlerinde yapay zeka.

  1. Otonom Sürüş: Kendi kendine giden araçlar yayaları tanımlamak için nesne algılama modelleri, diğer araçlar ve engeller. Buradaki güvenlik protokolleri, kameraların yanı sıra LiDAR ve radar kullanarak yedekliliği içerir ve Yapay zekanın emin olmadığı durumlarda aracın yavaşladığı veya insan müdahalesi talep ettiği "belirsizlik tahmini" bir nesne hakkında. Waymo gibi kuruluşlar detaylı güvenlik bilgileri yayınlıyor. Bu algı sistemlerini doğrulamak için metodolojiler.
  2. Tıbbi Teşhis: İçinde tıbbi görüntü analizi, bir yapay zeka yardımcısı radyologlar en aza indirirken doğruluğu en üst düzeye çıkarmalıdır yanlış negatifler. Güvenlik mekanizmaları genellikle "döngüde insan" iş akışını içerir; burada yapay zeka yalnızca Nihai teşhisi kendi başına koymak yerine doktorun incelemesi için potansiyel sorunlar, hasta güvenliğinin sağlanması 'de vurgulandığı gibi önceliklendirilmiştir. Sağlık çözümlerinde yapay zeka.

Kodda Güvenlik Eşiklerinin Uygulanması

Dağıtımda güvenliği artırmanın temel yöntemlerinden biri katı güven eşikleri uygulamaktır. Göz ardı ederek Düşük güvenirlikli tahminler, geliştiriciler bir yapay zeka ajanının zayıf veya gürültülü verilerle hareket etmesini önleyebilir.

Aşağıdaki örnekte, tahminlerin nasıl filtreleneceği gösterilmektedir Ultralytics YOLO11 modeli, sadece yüksek kesinlikte tespitler işlenir.

from ultralytics import YOLO

# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")

# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)

# Process only the safe, high-confidence detections
for result in results:
    print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")

Yapay Zeka Güvenliği - Yapay Zeka Etiği Karşılaştırması

Genellikle birbirinin yerine kullanılsa da, bu terimler aşağıdakilerin farklı yönlerini ele alır sorumlu yapay zeka geliştirme.

  • Yapay Zeka Güvenliği öncelikle teknik bir konudur. Şunu sorar: "Bu sistem, aşağıdakiler olmadan tasarlandığı gibi çalışacak mı? çökmesine veya fiziksel kazalara neden olur mu?" Güvenilirlik, kontrol ve hata önleme ile ilgilenir, aşağıdakilere benzer si̇vi̇l havacilikta güvenli̇k mühendi̇sli̇ği̇.
  • YZ Etiği toplumsal ve ahlaki bir konudur. "Bu sistem adil mi ve biz bunu inşa etmeli miyiz?" diye sorar. Algoritmik önyargı gibi konulara odaklanıyor, veri gizliliği ve sosyo-ekonomik etkileri otomasyon. Daha derin bilgiler için şu konudaki sözlük girişimizi inceleyin Yapay Zeka Etiği.

Aşağıdaki gibi çerçeveler NIST Yapay Zeka Risk Yönetimi Çerçevesi şunları sağlar Kuruluşların hem güvenlik hem de etik riskleri ele almaları için kılavuz ilkeler. Modeller aşağıdakilere doğru geliştikçe Yapay Genel Zeka (AGI), Avrupa Komisyonu gibi enstitülerdeki güvenlik araştırmacıları arasındaki işbirliği Future of Life Enstitüsü ve endüstri geliştiricileri için giderek daha hayati hale geliyor teknolojinin insanlığa faydalı olmaya devam etmesini sağlamak.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın