Algoritmik yanlılığı, kaynaklarını ve gerçek dünya örneklerini keşfedin. Yanlılığı azaltmak ve adil, etik yapay zeka sistemleri oluşturmak için stratejiler öğrenin.
Algoritmik önyargı, bir bilgisayar sisteminde sistematik ve tekrarlanabilir hataları ifade eder ve bu hatalar, bir kullanıcı grubunu diğerlerine göre ayrıcalıklı kılmak gibi adil olmayan sonuçlar yaratır. Yapay Zeka (AI) bağlamında, bu fenomen, bir Makine Öğrenimi (ML) modeli, belirli demografik gruplara veya senaryolara karşı tutarlı bir şekilde çarpık sonuçlar ürettiğinde ortaya çıkar. Öngörülemeyen gürültü oluşturan rastgele hatalardan farklı olarak, algoritmik önyargı, modelin tasarlanma, eğitilme veya uygulanma biçimindeki yapısal bir kusuru yansıtır. Bu önyargıları ele almak, AI Etiğinin temel bir yönüdür ve otomatik karar verme sistemlerine güven oluşturmak için gereklidir.
Önyargı, AI sistemlerine çeşitli yollardan sızabilir. En yaygın kaynak, temsil niteliği olmayan eğitim verileridir. Bir bilgisayar görme (CV) modeli, öncelikle tek bir coğrafi bölgeden alınan görüntülerle eğitilirse, dünyanın diğer bölgelerinden gelen nesneleri veya sahneleri tanımakta zorluk çekebilir. Bu genellikle veri kümesi önyargısı olarak adlandırılır. Ancak, algoritmanın kendisi, yani verileri işleyen matematiksel mantık da önyargı yaratabilir. Örneğin, genel doğruluğu en üst düzeye çıkarmak için tasarlanmış bir optimizasyon algoritması, daha yüksek bir toplam puan elde etmek için daha küçük, temsil edilmeyen alt gruplarda performanstan ödün verebilir.
Algoritmik önyargının etkisi çeşitli sektörlerde, özellikle de otomatik sistemlerin yüksek riskli kararlar.
Önyargıyı etkili bir şekilde azaltmak için "Algoritmik Önyargı "yı ilgili terimlerden ayırmak faydalı olacaktır. alanı sorumlu yapay zeka.
Geliştiriciler, titiz testler ve çeşitli eğitim stratejileri kullanarak algoritmik önyargıyı azaltabilirler. Bu gibi teknikler veri artırımı veri kümelerini dengelemeye yardımcı olabileceğinden az temsil edilen örneklerin varyasyonlarını yaratmak. Ayrıca, aşağıdaki gibi çerçevelere bağlı kalmak NIST Yapay Zeka Risk Yönetimi Çerçevesi aşağıdakileri sağlar risklerin belirlenmesine yönelik yapılandırılmış yaklaşım.
Aşağıdaki örnek, en son teknolojiye sahip Ultralytics ile eğitim sırasında veri artırmanın nasıl uygulanacağını göstermektedir. Çevirme veya ölçeklendirme gibi geometrik artırmalar artırarak, model daha iyi genelleme yapmayı öğrenir ve belirli nesne yönelimlerine veya konumlarına yönelik önyargıyı potansiyel olarak azaltır.
from ultralytics import YOLO
# Load the YOLO26 model, the new standard for speed and accuracy
model = YOLO("yolo26n.pt")
# Train with increased augmentation to improve generalization
# 'fliplr' (flip left-right) and 'scale' help the model see diverse variations
results = model.train(
data="coco8.yaml",
epochs=50,
fliplr=0.5, # 50% probability of horizontal flip
scale=0.5, # +/- 50% image scaling
)
IBM'in AI Fairness 360 ve Google What-If Tool gibi araçlar, mühendislerin modellerini farklı alt gruplar arasında eşitsizlikler açısından denetlemelerine olanak tanır. Sentetik verilerin kullanılması, gerçek dünya verilerinin yetersiz olduğu eğitim setlerindeki boşlukları doldurmaya da yardımcı olabilir. Verimli veri kümesi yönetimi ve bulut eğitimi için Ultralytics , veri dağılımlarını görselleştirmek ve olası dengesizlikleri erken aşamada tespit etmek için araçlar sunar. Sonuç olarak, AI'da şeffaflık sağlamak için teknik çözümler, çeşitli geliştirme ekipleri ve tüm kullanıcı demografik gruplarında hassasiyet ve geri çağırma oranlarının sürekli değerlendirilmesi gerekir.
