YOLO Vision 2025'i kaçırmayın!
25 Eylül 2025
10:00 — 18:00 BST
Hibrit etkinlik
Yolo Vision 2024

Açıklanabilir yapay zeka (XAI) hakkında bilmeniz gereken her şey

Abirami Vina

4 dakika okuma

13 Aralık 2024

Açıklanabilir Yapay Zeka'nın (XAI), sağlık hizmetleri, güvenlik, otonom sürüş ve daha pek çok alanda yapay zeka tahminlerini şeffaf ve güvenilir hale getirerek nasıl güven oluşturduğunu keşfedin.

Hiç ChatGPT gibi bir yapay zeka (YZ) aracından gelen bir yanıtı görüp de bu sonuca nasıl vardığını merak ettiniz mi? O zaman, YZ'nin "kara kutu" sorunuyla tanışmışsınız demektir. Bu terim, YZ modellerinin verileri nasıl işlediği ve analiz ettiği konusundaki belirsizliği ifade eder. En son teknolojiye sahip YZ algoritmalarıyla düzenli olarak çalışan YZ mühendisleri ve bilim insanları bile, bunların iç işleyişini tam olarak anlamakta zorlanabilirler. Hatta, BT uzmanlarının yalnızca %22'si YZ araçlarının yeteneklerini gerçekten anlamaktadır. 

YZ modellerinin nasıl karar verdiği konusundaki belirsizlik, özellikle sağlık hizmetlerinde bilgisayarlı görü ve finansta YZ gibi kritik alanlarda riskli olabilir. Ancak, bu zorlukların üstesinden gelmek ve şeffaflığı artırmak için önemli ilerlemeler kaydedilmektedir.

Özellikle, açıklanabilir YZ (XAI) yalnızca bu sorunu çözmeye odaklanır. Basitçe söylemek gerekirse, karmaşık makine öğrenimi algoritmaları tarafından verilen sonuçları veya çıktıları anlamalarına ve güvenmelerine yardımcı olan bir süreçler ve yöntemler kümesidir. 

XAI, geliştiricilerin YZ sistemlerinin beklendiği gibi çalıştığından emin olmalarına yardımcı olabilir. Ayrıca, YZ şirketlerinin düzenleyici standartları karşılamasına da yardımcı olabilir. Bu makalede, açıklanabilir YZ'yi ve geniş kullanım alanlarını keşfedeceğiz. Haydi başlayalım!

Açıklanabilir YZ'nin önemi

YZ ile çalışırken açıklanabilirlik çok önemlidir. Bu, özellikle sağlık hizmetleri gibi sektörlerdeki uygulamalarda yaygın olarak kullanılan YZ'nin bir alt alanı olan bilgisayarlı görü söz konusu olduğunda geçerlidir. Bu kadar hassas sektörlerde görü modelleri kullanılırken, modelin işleyişinin şeffaf ve herkes için anlaşılabilir olması önemlidir. 

Bilgisayarlı görü modellerinde yorumlanabilirlik, kullanıcıların bir tahminin nasıl yapıldığını ve arkasındaki mantığı daha iyi anlamalarına yardımcı olur. Şeffaflık, modelin sınırlamalarını açıkça belirterek ve verilerin etik bir şekilde kullanılmasını sağlayarak modelin işleyişini herkes için netleştirerek buna katkıda bulunur. Örneğin, bilgisayarlı görü radyologların röntgen görüntülerindeki sağlık sorunlarını verimli bir şekilde tanımlamasına yardımcı olabilir.

__wf_reserved_inherit
Fig 1. Sağlıklı, hasta, aktif ve latent tüberküloz sınıflandırmalarını gösteren Vision AI kullanılarak analiz edilen göğüs röntgenleri.

Ancak, yalnızca doğru olan bir görme sistemi yeterli değildir. Sistemin ayrıca kararlarını açıklayabilmesi gerekir. Diyelim ki sistem, görüntünün hangi bölümlerinin sonuçlarına yol açtığını gösterebiliyor - o zaman, herhangi bir çıktı daha net olacaktır. Bu tür bir şeffaflık düzeyi, tıp uzmanlarının bulgularını iki kez kontrol etmelerine ve hasta bakımının tıbbi standartları karşıladığından emin olmalarına yardımcı olacaktır. 

Açıklanabilirliğin neden bu kadar önemli olduğunun bir başka nedeni de, YZ şirketlerini sorumlu tutması ve kullanıcılarda güven oluşturmasıdır. Güvenilir YZ, kullanıcıların YZ yeniliklerinin güvenilir bir şekilde çalıştığına, adil kararlar verdiğine ve verileri sorumlu bir şekilde işlediğine dair güven duymasına yol açar. 

Bilgisayarlı görüde temel açıklanabilir YZ teknikleri

Artık bilgisayarlı görüde açıklanabilirliğin neden önemli olduğunu tartıştığımıza göre, Vision AI'da kullanılan temel XAI tekniklerine bir göz atalım.

Saliency haritaları

Yapay sinir ağları, insan beyninden ilham alan, birbirine bağlı düğüm (nöron) katmanları aracılığıyla verileri işleyerek örüntüleri tanımak ve kararlar almak için tasarlanmış modellerdir. Karmaşık bilgisayarlı görü problemlerini yüksek doğrulukla çözmek için kullanılabilirler. Bu doğruluğa rağmen, tasarım gereği hala kara kutulardır. 

Saliency haritaları, sinir ağlarının görüntüleri analiz ederken ne gördüğünü anlamaya yardımcı olmak için kullanılabilen bir XAI tekniğidir. Ayrıca, beklendiği gibi performans göstermemeleri durumunda modellerde sorun gidermek için de kullanılabilir. 

Saliency haritaları, bir görüntünün hangi bölümlerinin (piksellerin) bir modelin tahminlerini tanımladığına odaklanarak çalışır. Bu işlem, modelin tahminlerden girişe geri izlediği geri yayılım'a çok benzer. Ancak modelin ağırlıklarını hatalara göre güncellemek yerine, her pikselin tahmin için ne kadar "önemli" olduğuna bakıyoruz. Saliency haritaları, görüntü sınıflandırması gibi bilgisayarlı görü görevleri için çok kullanışlıdır.

Örneğin, bir görüntü sınıflandırma modeli bir görüntünün köpek olduğunu tahmin ederse, modelin neden köpek olduğunu düşündüğünü anlamak için saliency haritasına bakabiliriz. Bu, hangi piksellerin çıktıyı en çok etkilediğini belirlememize yardımcı olur. Saliency haritası, görüntünün köpek olduğu nihai tahminine katkıda bulunan tüm pikselleri vurgulayacaktır.

__wf_reserved_inherit
Fig 2. Giriş görüntülerinin ve saliency haritalarının yan yana görünümü.

Sınıf Aktivasyon Haritalama (CAM)

Sınıf Aktivasyon Haritalama, bir sinir ağının görüntü sınıflandırma tahminleri yaparken bir görüntünün hangi bölümlerine odaklandığını anlamak için kullanılan başka bir XAI tekniğidir. Saliency haritalarına benzer şekilde çalışır, ancak belirli pikseller yerine görüntüdeki önemli özellikleri tanımlamaya odaklanır. Özellikler, modelin görüntüde algıladığı şekiller veya dokular gibi desenler veya ayrıntılardır.

Gradyan Ağırlıklı Sınıf Aktivasyon Haritalama (Grad-CAM) ve Grad-CAM++ gibi yöntemler, bazı iyileştirmelerle aynı fikir üzerine kurulmuştur.

CAM şu şekilde çalışır:

  • Sinir ağı nihai kararını vermeden önce, bilgileri basitleştirmek için global ortalama havuzlama (GAP) adı verilen bir adım kullanır. GAP, algılanan bir desendeki tüm pikselleri tek bir ortalama değerde birleştirerek her özellik haritası için bir özet oluşturur (algılanan desenlerin görsel bir temsili).
  • Her özellik haritasına daha sonra belirli bir sınıfı (örneğin "kuş" veya "kedi") tahmin etmek için ne kadar önemli olduğunu gösteren bir ağırlık verilir.
  • Ancak, CAM'in bir sınırlaması, bu ağırlıkları hesaplamak için modeli yeniden eğitmeniz gerekebilmesidir, bu da zaman alıcı olabilir.

Grad-CAM, her bir özellik haritasının nihai tahmini ne kadar etkilediğini gösteren sinyaller gibi olan gradyanları kullanarak bunu geliştirir. Bu yöntem, GAP ihtiyacını ortadan kaldırır ve modelin yeniden eğitilmesine gerek kalmadan neye odaklandığını görmeyi kolaylaştırır. Grad-CAM++, sonuçları daha da netleştirmek için yalnızca olumlu etkilere odaklanarak bunu bir adım öteye taşır.

__wf_reserved_inherit
Şekil 3. CAM, Grad-CAM ve Grad-CAM++ karşılaştırması.

Karşıolgusal açıklamalar

Karşıolgusal açıklamalar, açıklanabilir yapay zekanın önemli bir unsurudur. Bir karşıolgusal açıklama, gerçekleşmemiş ancak gerçekleşebilecek alternatif senaryoları veya olayları dikkate alarak bir durumu veya sonucu tanımlamayı içerir. Belirli girdi değişkenlerindeki değişikliklerin farklı sonuçlara nasıl yol açtığını gösterebilir, örneğin: "X olmasaydı, Y olmazdı."

Yapay zeka ve bilgisayarlı görü söz konusu olduğunda, bir karşıolgusal açıklama, bir yapay zeka modelinin farklı ve belirli bir sonuç üretmesi için bir girdide (örneğin, bir resim veya veri) gereken en küçük değişikliği tanımlar. Örneğin, bir resimdeki bir nesnenin rengini değiştirmek, bir görüntü sınıflandırma modelinin tahminini "kedi"den "köpek"e değiştirebilir.

Başka bir iyi örnek, bir yüz tanıma sistemindeki açıyı veya aydınlatmayı değiştirmek olabilir. Bu, modelin farklı bir kişiyi tanımlamasına neden olabilir ve girdideki küçük değişikliklerin modelin tahminlerini nasıl etkileyebileceğini gösterir.

Bu açıklamaları oluşturmanın en basit yolu deneme yanılmadır: Yapay zeka modeli size istediğiniz sonucu verene kadar girdinin bölümlerini (resmin veya verinin özellikleri gibi) rastgele değiştirebilirsiniz. Diğer yöntemler arasında, değişiklikleri bulmak için optimizasyon ve arama tekniklerini kullanan modelden bağımsız yaklaşımlar ve gerekli değişiklikleri belirlemek için dahili ayarlara veya hesaplamalara dayanan modele özgü yaklaşımlar bulunur.

Bilgisayarlı görüde açıklanabilir yapay zeka uygulamaları

Şimdi XAI'nin ne olduğunu ve temel tekniklerini incelediğimize göre, gerçek hayatta nasıl kullanıldığına göz atabiliriz. XAI'nin birçok alanda çeşitli uygulamaları vardır. Potansiyelini vurgulayan bazı kullanım örneklerine dalalım:

  • Güvenlik sistemleri: XAI, pasaportlar ve sürücü ehliyetleri gibi kimlik belgelerinde dönüştürülmüş görüntüleri tespit ederek güvenlik sistemlerini geliştirmek için kullanılabilir. Bu, görüntülerin orijinalliğini sağlar, kimlik doğrulama süreçlerini güçlendirir ve hassas uygulamalarda hileli faaliyetleri önler.
__wf_reserved_inherit
Şekil 4. XAI'nin dönüştürülmüş görüntüleri tespit etmek için nasıl çalıştığı.

  • Otonom sürüş: Kendi kendine giden bir arabanın yerleşik Görüntü İşleme (Vision) yapay zeka sisteminin yeteneklerini ve sınırlamalarını anlamak, arabanın gerçek dünya yollarına çıkarılmadan önce test edilmesinin büyük bir parçası olabilir. XAI, otomobil şirketlerinin sorunları daha net bir şekilde tanımlamasına ve ele almasına yardımcı olabilir.
  • Hukuk sistemleri: Görüntü işlemeyle (Vision) etkinleştirilmiş belge analiz sistemleri, yargısal karar alma süreçlerinde giderek daha fazla kullanılmaktadır. XAI, adil sonuçları destekler ve otomatik kararların incelenmesine olanak tanır. Ayrıca hukuk uzmanlarının bir yapay zeka modelinin kararlarına nasıl ulaştığını anlamalarına yardımcı olur.
  • Yaban hayatı izleme: Kamera tuzakları genellikle yaban hayatını izlemek ve hayvan türleri hakkında veri toplamak için kullanılır. XAI, yapay zekanın bu türleri görüntülerde nasıl sınıflandırdığını açıklamak için kullanılabilir. Bu sayede koruma çabaları daha güvenilir ve doğru olabilir.

Açıklanabilir yapay zeka hakkında temel çıkarımlar

Açıklanabilir yapay zeka, yapay zeka sistemlerinin nasıl çalıştığını ve neden belirli kararlar aldığını anlamayı kolaylaştırır. Yapay zeka modelleri hakkındaki şeffaflık, güven ve hesap verebilirlik oluşturur. Bilgi güçtür ve yapay zeka yeniliklerinin daha sorumlu bir şekilde kullanılmasına yardımcı olur. Sağlık hizmetleri, güvenlik, otonom sürüş ve hukuk sistemleri gibi kritik alanlarda, XAI, geliştiricilerin ve kullanıcıların yapay zeka tahminlerini anlamalarına, hataları belirlemelerine ve adil ve etik kullanım sağlamalarına yardımcı olmak için kullanılabilir. Yapay zekayı daha şeffaf hale getirerek, XAI teknoloji ve insan güveni arasındaki boşluğu doldurarak gerçek dünya uygulamaları için daha güvenli ve daha güvenilir hale getirir.

Daha fazla bilgi edinmek için GitHub depomuzu ziyaret edin ve topluluğumuzla etkileşim kurun. Çözüm sayfalarımızda kendi kendine giden arabalardaki ve tarımdaki yapay zeka uygulamalarını keşfedin. 🚀

Gelin, yapay zekanın geleceğini
birlikte inşa edelim!

Makine öğreniminin geleceği ile yolculuğunuza başlayın

Ücretsiz başlayın
Bağlantı panoya kopyalandı