Sözlük

Yapay Zeka'da Adalet

Etik, tarafsız modellerle yapay zekada adaleti sağlayın. Eşitlikçi YZ çözümleri için araçları, stratejileri ve Ultralytics YOLO'yu keşfedin.

Yapay zekada adalet, yapay zeka sistemlerinin farklı bireyler veya gruplar için adaletsiz sonuçlar yaratmamasını veya sürdürmemesini sağlamaya adanmış multidisipliner bir alandır. Irk, cinsiyet, yaş veya diğer korunan özellikler gibi demografik geçmişlerine bakılmaksızın tüm kullanıcılara eşit davranan modellerin geliştirilmesini ve uygulanmasını içerir. Adaletin sağlanması, topluma bir bütün olarak fayda sağlayan güvenilir ve sorumlu YZ sistemleri oluşturmanın kritik bir bileşenidir. Adalet arayışı, model doğruluğunun ötesine geçmekte, bunun yerine YZ güdümlü kararların toplumsal etkisine ve etik sonuçlarına odaklanmaktadır.

Adillik İlgili Kavramlardan Nasıl Farklılaşır?

Sıklıkla birbirinin yerine kullanılsa da, adalet ve ilgili terimlerin farklı anlamları vardır:

  • YapayZeka Etiği: Bu, yapay zekada veri gizliliği, hesap verebilirlik ve şeffaflık da dahil olmak üzere yapay zeka ile ilgili tüm etik hususları kapsayan geniş bir alandır. Adalet, YZ etiğinin daha geniş çerçevesi içinde temel bir ilkedir.
  • YZ'de Önyargı: Önyargı, bir YZ sisteminin çıktılarındaki sistematik hataları veya önyargıları ifade eder ve bunlar genellikle çarpık eğitim verilerinden veya kusurlu algoritmalardan kaynaklanır. Adillik, ayrımcı sonuçları önlemek için bu önyargıyı tanımlama ve azaltma proaktif hedefidir.
  • Algoritmik Ö nyargı: Bu, algoritmanın kendisinden kaynaklanan ve mantığının doğası gereği belirli grupları kayırabileceği özel bir önyargı türüdür. Adalet girişimleri, geliştirme ve değerlendirme sırasında özel teknikler yoluyla algoritmik önyargıyı düzeltmeyi amaçlamaktadır.

Yapay Zeka Adaletinin Gerçek Dünya Uygulamaları

YZ kararlarının insanların hayatlarını önemli ölçüde etkileyebileceği yüksek riskli uygulamalarda adaletin uygulanması esastır. Öne çıkan iki örnek şunlardır:

  1. Equitable Finansal Hizmetler: Yapay zeka modelleri, krediler için kredi değerliliğini değerlendirmek üzere yaygın olarak kullanılmaktadır. Adil olmayan bir model, kredi verme verilerindeki tarihsel önyargılar nedeniyle azınlık gruplarından nitelikli başvuru sahiplerine diğerlerinden daha yüksek oranda kredi vermeyi reddedebilir. Adil bir YZ sistemi, kredi tavsiyelerinin korunan özelliklerle ilişkili olmadığından emin olmak için tasarlanır ve test edilir, Dünya Ekonomik Forumu gibi kurumlar tarafından savunulduğu gibi finansal fırsatlara eşit erişimi teşvik eder.
  2. Tarafsız İşe Alma Araçları: Şirketler özgeçmişleri taramak ve gelecek vaat eden adayları belirlemek için giderek daha fazla yapay zeka kullanıyor. Ancak, bir model geçmişteki işyeri önyargılarını yansıtan geçmiş işe alım verileri üzerinde eğitilirse, kadın adayları veya geleneksel olmayan isimlere sahip başvuru sahiplerini haksız yere cezalandırabilir. Buna karşı koymak için geliştiriciler, İnsan Kaynakları Yönetimi Derneği (SHRM) gibi kuruluşların araştırdığı gibi, aracın tüm adayları yalnızca beceri ve niteliklere göre değerlendirmesini sağlamak için adalet kısıtlamaları uygular ve denetimler yapar.

Yapay Zeka Sistemlerinde Adaleti Sağlamak

Adaleti sağlamak, tüm YZ yaşam döngüsü boyunca bütünsel bir yaklaşım gerektiren devam eden bir süreçtir. Temel stratejiler şunları içerir:

  • Dikkatli Veri İşleme: Titiz veri toplama ve açıklama uygulamaları, çeşitli ve temsili veri kümeleri oluşturmak için esastır. Veri artırma gibi teknikler, yeterince temsil edilmeyen grupların dengelenmesine yardımcı olabilir ve Veri Setleri için Veri Sayfaları gibi çerçeveler şeffaflığı teşvik eder.
  • Adilliğe Duyarlı Algoritmalar: Model eğitimi sırasında adalet kısıtlamalarını açıkça dahil etmek için makine öğrenimi (ML) algoritmalarının geliştirilmesi veya uyarlanması. Bu, modelin hem performans hem de eşitlik için optimize olmasını sağlar.
  • Titiz Değerlendirme: Farklı alt gruplar arasındaki performans eşitsizliklerini değerlendirmek için belirli adalet ölçütlerini kullanarak kapsamlı model değerlendirmesi yapmak çok önemlidir. Google'ın What-If Tool ve IBM'in AI Fairness 360 gibi araçları, önyargı tespiti ve azaltılması için yetenekler sağlar.
  • Sürekli İzleme: Dağıtımdan sonra model performansının ve adaletinin sürekli olarak izlenmesi, ortaya çıkan sorunları veya zaman içinde yeni önyargılara yol açabilecek veri kaymalarını tespit etmek ve ele almak için gereklidir.

Ultralytics HUB gibi platformlar, özel model eğitimi ve yönetimi için araçlar sağlayarak geliştiricilerin veri kümelerini dikkatlice seçmelerine ve Ultralytics YOLO11 gibi modelleri farklı gruplar arasında performans açısından değerlendirmelerine olanak tanır. Bu, daha eşitlikçi bilgisayarla görme (CV) çözümlerinin geliştirilmesini destekler. Yapay Zeka Ortaklığı gibi kuruluşların etik yönergelerine uymak ve NIST Yapay Zeka Risk Yönetimi Çerçevesi gibi hükümet çerçevelerini takip etmek de hayati adımlardır. Araştırma topluluğu , ACM Adillik, Hesap Verebilirlik ve Şeffaflık Konferansı (FAccT) gibi ortamlarda bu konuları ilerletmeye devam etmektedir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve büyüyün

Şimdi katılın
Panoya kopyalanan bağlantı