Algoritmik yanlılığı, kaynaklarını ve gerçek dünya örneklerini keşfedin. Yanlılığı azaltmak ve adil, etik yapay zeka sistemleri oluşturmak için stratejiler öğrenin.
Algoritmik önyargı, bir bilgisayar sisteminde adil olmayan sonuçlar yaratan sistematik ve tekrarlanabilir hataları ifade eder, örneğin keyfi bir kullanıcı grubunu diğerlerine göre ayrıcalıklı kılmak. Bu bağlamda Yapay Zeka (AI), bu fenomeni, bir makine öğrenimi (ML) modeli sonuçlar üretir Belirli demografik özelliklere veya senaryolara karşı sürekli olarak çarpık olan. Rastgele hataların aksine Tahmin edilemeyen algoritmik önyargı, modelin tasarlanma, eğitilme veya kullanılma şeklindeki yapısal bir kusuru yansıtır. Bu önyargıların ele alınması YZ Etiği ve güven oluşturmak için gereklidir otomatik karar verme sistemleri.
Önyargı, yapay zeka sistemlerine çeşitli yollardan girebilir. En yaygın kaynak temsil edici olmayan eğitim verileri. Eğer bir bilgisayarla görme (CV) modeli öncelikle eğitilir Bir coğrafi bölgeden alınan görüntülerde, dünyanın diğer bölgelerindeki nesneleri veya sahneleri tanımakta zorlanabilir. Bu durum genellikle veri seti yanlılığı olarak adlandırılır. Ancak, Algoritmanın kendisi de -verileri işleyen matematiksel mantık- yanlılığa yol açabilir. Örneğin, bir maksimize etmek için tasarlanmış optimizasyon algoritması genel doğruluk, daha yüksek bir toplam puan elde etmek için daha küçük, yeterince temsil edilmeyen alt gruplardaki performansı feda edebilir.
Algoritmik önyargının etkisi çeşitli sektörlerde, özellikle de otomatik sistemlerin yüksek riskli kararlar.
Önyargıyı etkili bir şekilde azaltmak için "Algoritmik Önyargı "yı ilgili terimlerden ayırmak faydalı olacaktır. alanı sorumlu yapay zeka.
Geliştiriciler, titiz testler ve çeşitli eğitim stratejileri kullanarak algoritmik önyargıyı azaltabilirler. Bu gibi teknikler veri artırımı veri kümelerini dengelemeye yardımcı olabileceğinden az temsil edilen örneklerin varyasyonlarını yaratmak. Ayrıca, aşağıdaki gibi çerçevelere bağlı kalmak NIST Yapay Zeka Risk Yönetimi Çerçevesi aşağıdakileri sağlar risklerin belirlenmesine yönelik yapılandırılmış yaklaşım.
Aşağıdaki örnekte, eğitim sırasında veri artırımının nasıl uygulanacağı gösterilmektedir Ultralytics YOLO11. Geometrik büyütmeleri artırarak çevirme veya ölçekleme gibi, model daha iyi genelleme yapmayı öğrenir ve potansiyel olarak belirli nesneye yönelik önyargıyı azaltır yönelimler veya pozisyonlar.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with increased augmentation to improve generalization
# 'fliplr' (flip left-right) and 'scale' help the model see diverse variations
results = model.train(
data="coco8.yaml",
epochs=50,
imgsz=640,
fliplr=0.5, # 50% probability of horizontal flip
scale=0.5, # +/- 50% image scaling
)
Fairlearn gibi araçlar ve Google'ın What-If Aracı mühendislerin modellerini denetlemesine olanak tanıyor farklı alt gruplar arasındaki eşitsizlikler için. Nihayetinde, başarmak YZ'de şeffaflık aşağıdakilerin bir kombinasyonunu gerektirir teknik çözümler, farklı geliştirme ekipleri ve modellerin gerçek dünyada nasıl performans gösterdiğinin sürekli değerlendirilmesi.
