YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024
Sözlük

Açıklanabilir Yapay Zeka (XAI)

Açıklanabilir Yapay Zeka'yı (XAI) keşfedin: Daha akıllı yapay zeka kararları için yorumlanabilir içgörülerle güven oluşturun, hesap verebilirliği sağlayın ve düzenlemelere uyun.

Açıklanabilir Yapay Zeka (XAI), insan kullanıcıların makine öğrenimi modelleri tarafından yapılan kararları anlamasını ve güvenmesini sağlayan bir süreçler ve yöntemler kümesidir. Yapay Zeka (AI) daha da geliştikçe, birçok model "kara kutu" olarak çalışır ve iç mantıklarını anlamayı zorlaştırır. XAI, bu kara kutuyu açmayı, model çıktıları için net açıklamalar sağlamayı ve şeffaflığı ve hesap verebilirliği teşvik etmeyi amaçlar. XAI'nin geliştirilmesi, öğrenilen modelleri ve kararları son kullanıcılar tarafından anlaşılabilecek ve güvenilebilecek AI sistemleri oluşturmayı amaçlayan DARPA'nın Açıklanabilir AI programı gibi girişimlerle önemli ölçüde desteklenmiştir.

Açıklanabilir Yapay Zeka Neden Önemli?

XAI ihtiyacı, pratik ve etik düşüncelerle çeşitli alanlara yayılmıştır. Güven oluşturmak temeldir; kullanıcılar ve paydaşlar, yapay zeka sistemlerinin sonuçlarına nasıl ulaştığını anlayabilirlerse, bu sistemleri benimseme ve güvenme olasılıkları daha yüksektir. Bu, özellikle sağlık hizmetlerinde yapay zeka ve otonom araçlar gibi yüksek riskli alanlarda çok önemlidir. Açıklanabilirlik, geliştiricilerin kusurları ve beklenmedik davranışları belirlemesine yardımcı olduğundan, modelleri ayıklamak ve iyileştirmek için de gereklidir. Ayrıca, XAI, sorumlu yapay zeka geliştirmenin temel taşıdır ve algoritmik yanlılığı ortaya çıkarmaya ve azaltmaya ve yapay zekada adaleti sağlamaya yardımcı olur. Avrupa Birliği'nin Yapay Zeka Yasası gibi artan düzenlemelerle, yapay zeka odaklı kararlar için açıklamalar sağlamak yasal bir gereklilik haline gelmektedir.

XAI'nin Gerçek Dünya Uygulamaları

  1. Tıbbi Görüntü Analizi: Bir Evrişimsel Sinir Ağı (CNN) gibi bir yapay zeka modeli, hastalıkları tespit etmek için bir tıbbi taramayı analiz ettiğinde, XAI teknikleri bir ısı haritası oluşturabilir. Bu veri görselleştirmesi, modelin bir beyin taraması veri kümesindeki bir tümör gibi bir durumu en çok gösterdiğini düşündüğü görüntünün belirli bölgelerini vurgular. Bu, radyologların modelin bulgularını Kuzey Amerika Radyoloji Derneği (RSNA) gibi kuruluşlar tarafından belirtildiği gibi kendi uzmanlıklarına göre doğrulamasına olanak tanır.
  2. Finansal Hizmetler ve Kredi Puanlaması: Finansta, yapay zeka modelleri kredi başvurularını onaylamak veya reddetmek için kullanılır. Bir başvuru reddedilirse, düzenlemeler genellikle açık bir neden gerektirir. SHAP (SHapley Katkısal Açıklamalar) veya LIME (Yerel Yorumlanabilir Modelden Bağımsız Açıklamalar) gibi XAI yöntemleri, karara yol açan temel faktörleri (örneğin, düşük kredi puanı, yüksek borç/gelir oranı) belirleyebilir. Bu, yalnızca mevzuata uygunluğu sağlamakla kalmaz, aynı zamanda Dünya Ekonomik Forumu gibi kurumlar tarafından tartışıldığı gibi müşteri için şeffaflık da sağlar.

İlgili Terimlerden Ayırt Etme

  • Yapay Zekada Şeffaflık: Yakından ilişkili olmakla birlikte, şeffaflık daha geniş bir kavramdır. Bir yapay zeka sisteminin verilerine, algoritmalarına ve model dağıtım süreçlerine ilişkin içgörüye sahip olmayı ifade eder. XAI, bir modelin bireysel tahminlerini anlaşılabilir hale getirmek için özel araçlar ve teknikler sağlayan şeffaflığın önemli bir bileşenidir. Kısacası, şeffaflık genel sistemin açıklığı ile ilgiliyken, XAI belirli çıktılarını açıklamaya odaklanır.
  • Yapay Zeka Etiği: Bu, yapay zeka geliştirme ve kullanımını yönetmesi gereken ahlaki ilkeler ve değerlerle ilgili geniş bir alandır. XAI, temel etik ilkeleri uygulamak için pratik bir mekanizma görevi görür. Modelleri açıklanabilir hale getirerek, geliştiriciler ve denetçiler, modelleri adalet, hesap verebilirlik ve potansiyel zararlar açısından daha iyi değerlendirebilir, bu da XAI'yi etik açıdan sağlam yapay zeka oluşturmak için kritik bir araç haline getirir.

Zorluklar ve Dikkat Edilmesi Gerekenler

Anlamlı açıklanabilirlik elde etmek karmaşık olabilir. Model performansı ve yorumlanabilirlik arasında genellikle bir denge vardır; oldukça karmaşık derin öğrenme modelleri daha doğru olabilir ancak açıklaması daha zor olabilir; bu zorluk "Görüntü modellerinin tarihi" bölümünde ayrıntılı olarak açıklanmıştır. Ek olarak, ayrıntılı model mantığını açığa çıkarmak, fikri mülkiyetle ilgili endişeleri artırabilir veya düşmanca saldırılar için güvenlik açıkları oluşturabilir. AI Ortaklığı gibi kuruluşlar ve ACM FAccT gibi akademik konferanslar bu etik ve pratik zorlukların üstesinden gelmeye çalışmaktadır.

Ultralytics'te, çeşitli araçlar ve kaynaklar aracılığıyla modelin anlaşılmasını destekliyoruz. Ultralytics HUB içindeki görselleştirme yetenekleri ve Ultralytics Belgeleri'ndeki ayrıntılı kılavuzlar, örneğin YOLO Performans Metrikleri'nin açıklaması, kullanıcıların Ultralytics YOLOv8 gibi modellerin davranışını değerlendirmesine ve yorumlamasına yardımcı olur. Bu, geliştiricilerin üretim'den tarım'a kadar uzanan alanlarda daha güvenilir uygulamalar oluşturmasını sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı