Entdecken Sie algorithmische Verzerrungen, ihre Quellen und Beispiele aus der Praxis. Lernen Sie Strategien zur Abschwächung von Verzerrungen und zum Aufbau fairer, ethischer KI-Systeme.
Algorithmische Verzerrungen beziehen sich auf systematische und wiederholbare Fehler in einem Computersystem, die zu ungerechten Ergebnissen führen, z. B. Bevorzugung einer willkürlichen Gruppe von Nutzern gegenüber anderen. Im Kontext der Künstliche Intelligenz (KI): Dieses Phänomen auf, wenn ein Modell des maschinellen Lernens (ML) Ergebnisse erzeugt Ergebnisse produziert, die durchgängig gegen bestimmte demografische Gruppen oder Szenarien geneigt sind. Im Gegensatz zu zufälligen Fehlern, die die nicht vorhersehbar sind, spiegelt die algorithmische Verzerrung einen strukturellen Fehler in der Art und Weise wider, wie das Modell entworfen, trainiert oder eingesetzt wurde. Der Umgang mit diesen Verzerrungen ist ein grundlegender Aspekt der KI-Ethik und ist für den Aufbau von Vertrauen in automatisierte Entscheidungsfindungssysteme.
Voreingenommenheit kann sich über verschiedene Wege in KI-Systeme einschleichen. Die häufigste Quelle sind nicht repräsentative Trainingsdaten. Wenn ein Computer Vision (CV) -Modell hauptsächlich auf auf Bildern aus einer bestimmten geografischen Region trainiert wird, kann es Schwierigkeiten haben, Objekte oder Szenen aus anderen Teilen der Welt zu erkennen. Dies wird oft als " Dataset Bias" bezeichnet. Allerdings der Algorithmus selbst - die mathematische Logik, die die Daten verarbeitet - kann ebenfalls zu Verzerrungen führen. Zum Beispiel kann ein Optimierungsalgorithmus, der auf die Maximierung der die Gesamtgenauigkeit zu maximieren, kann die Leistung bei kleineren, unterrepräsentierten Untergruppen opfern, um eine höhere Gesamtpunktzahl zu erreichen.
Die Auswirkungen algorithmischer Verzerrungen sind in verschiedenen Branchen erheblich, insbesondere dort, wo automatisierte Systeme Entscheidungen mit hohem Risiko treffen.
Um Verzerrungen wirksam abzuschwächen, ist es hilfreich, "Algorithmic Bias" von verwandten Begriffen im Bereich der verantwortungsvoller KI.
Entwickler können die Voreingenommenheit von Algorithmen reduzieren, indem sie strenge Tests und verschiedene Trainingsstrategien anwenden. Techniken wie Datenerweiterung können helfen, Datensätze auszugleichen, indem Variationen von unterrepräsentierten Beispielen erstellen. Darüber hinaus gewährleistet die Einhaltung von Rahmenwerken wie dem NIST AI Risk Management Framework einen strukturierten strukturierten Ansatz zur Identifizierung von Risiken.
Das folgende Beispiel zeigt, wie die Datenerweiterung während des Trainings mit Ultralytics YOLO11. Durch Erhöhung der geometrischen Erweiterungen wie Spiegeln oder Skalieren lernt das Modell, besser zu verallgemeinern, was die Tendenz zu bestimmten Objektausrichtungen Ausrichtungen oder Positionen.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with increased augmentation to improve generalization
# 'fliplr' (flip left-right) and 'scale' help the model see diverse variations
results = model.train(
data="coco8.yaml",
epochs=50,
imgsz=640,
fliplr=0.5, # 50% probability of horizontal flip
scale=0.5, # +/- 50% image scaling
)
Werkzeuge wie Fairlearn und Google What-If-Tool ermöglichen es Ingenieuren, ihre Modelle auf Ungleichheiten zwischen verschiedenen Untergruppen zu überprüfen. Letztlich erfordert das Erreichen Transparenz in der KI nur durch eine Kombination aus technischen Lösungen, verschiedenen Entwicklungsteams und einer kontinuierlichen Bewertung der Leistung von Modellen in der realen Welt.