Verzerrung in KI
Entdecken Sie, wie Sie Verzerrungen in KI-Systemen identifizieren, abschwächen und verhindern können – mit Strategien, Tools und Beispielen aus der Praxis für eine ethische KI-Entwicklung.
Voreingenommenheit in der KI bezieht sich auf systematische Fehler oder Vorurteile, die in ein
Künstliche Intelligenz (KI) eingebettet sind, die
die zu unfairen, ungerechten oder diskriminierenden Ergebnissen führen. Im Gegensatz zu zufälligen Fehlern sind diese Vorurteile konsistent und
wiederholbar und bevorzugen oft eine beliebige Gruppe von Benutzern oder Dateneingaben gegenüber anderen. Da Organisationen zunehmend
Machine Learning (ML) in kritische Entscheidungsprozesse integrieren
Entscheidungsfindungsprozesse integrieren, ist das Erkennen und Beseitigen von Vorurteilen zu einer zentralen Säule der
KI-Ethik geworden. Wenn diese Probleme nicht gemildert werden, kann dies zu
zu verzerrten Ergebnissen bei Anwendungen von
KI in der Gesundheitsdiagnostik bis hin zur automatisierten
Finanzkrediten.
Quellen für Verzerrungen in AI-Systemen
Voreingenommenheit kann in KI-Systeme in mehreren Phasen des Entwicklungszyklus eindringen. Das Verständnis dieser Ursprünge ist
ist entscheidend für die Schaffung robuster und gerechter Modelle.
-
Dataset Bias: Dies ist die häufigste
häufigste Quelle, die auftritt, wenn die
Trainingsdaten, die zum Lernen des Modells verwendet werden, nicht
die reale Population nicht genau repräsentieren. Zum Beispiel, wenn ein
Bildklassifizierungsmodell trainiert
hauptsächlich auf Bildern aus westlichen Ländern trainiert wird, kann es Schwierigkeiten haben, Objekte oder Szenen aus anderen Regionen zu erkennen, ein
Phänomen, das oft mit Selektionsverzerrungen verbunden ist.
-
Algorithmische Verzerrung: Manchmal,
kann der mathematische Aufbau des Algorithmus selbst bestehende Ungleichheiten verstärken. Bestimmte
Optimierungsalgorithmen bevorzugen möglicherweise
Gesamtgenauigkeit auf Kosten unterrepräsentierter
Untergruppen bevorzugen und "Ausreißer", die gültige Minderheitenpopulationen darstellen, effektiv ignorieren.
-
Kognitive und menschliche Voreingenommenheit: Die subjektiven Entscheidungen von Ingenieuren bei der
Datenbeschriftung oder der Auswahl von Merkmalen können
ungewollt menschliche Vorurteile in das System einfließen.
Anwendungen und Auswirkungen in der realen Welt
Die Folgen der Voreingenommenheit der KI sind bei verschiedenen eingesetzten Technologien zu beobachten.
-
Ungleichheiten bei der Gesichtserkennung: Kommerzielle
Gesichtserkennungssysteme haben in der Vergangenheit
haben in der Vergangenheit höhere Fehlerquoten bei der Identifizierung von Frauen und People of Color gezeigt. Forschungsprojekte wie
Gender Shades haben aufgezeigt, wie
nicht repräsentative Datensätze zu einer schlechten Leistung für bestimmte Bevölkerungsgruppen führen, was zu
Datenschutz- und Inklusivitätsstandards.
-
Prädiktive Polizeiarbeit und Rückfälligkeit: Algorithmen zur Vorhersage der Rückfälligkeit von Straftätern wurden
kritisiert, weil sie rassistische Vorurteile aufweisen. Untersuchungen wie die
ProPublica-Analyse von COMPAS
zeigten, dass einige Modelle Angeklagte, die einer Minderheit angehören, fälschlicherweise als Hochrisikopersonen einstuften, was die
Gefahren des Verlassens auf historische Verhaftungsdaten, die gesellschaftliche Ungleichheiten widerspiegeln.
Strategien und Instrumente zur Schadensbegrenzung
Der Umgang mit Vorurteilen erfordert einen proaktiven Ansatz, der als
Fairness in der KI. Die Entwickler können verschiedene
Techniken einsetzen, um Voreingenommenheit detect und zu reduzieren.
-
Datenerweiterung: Eine wirksame Methode zur Verbesserung der Modellgeneralisierung ist die
Datenerweiterung. Durch die künstliche Erzeugung von
Variationen vorhandener Datenpunkte - z. B. durch Spiegeln, Drehen oder Anpassen der Farbbalance von Bildern - können die Entwickler
können Modelle wie Ultralytics YOLO11 auf eine breitere
Palette von Eingaben.
-
Algorithmisches Auditing: Regelmäßige Tests von Modellen anhand verschiedener Benchmarks sind von entscheidender Bedeutung. Tools wie
IBMs AI Fairness 360 und
Fairlearn von Microsoft bieten Metriken zur Bewertung der Modellleistung in
verschiedenen Untergruppen zu bewerten.
-
Transparenz: Die Annahme von
Explainable AI (XAI) -Praktiken helfen
Stakeholder zu verstehen , warum ein Modell bestimmte Vorhersagen macht, was es einfacher macht, diskriminierende
Logik.
Code-Beispiel: Verbesserte Verallgemeinerung mit Augmentation
Das folgende Python zeigt, wie die Datenerweiterung während des Trainings mit der Methode
ultralytics Paket. Dies trägt dazu bei, dass das Modell bei bestimmten Änderungen invariant wird, was möglicherweise eine
Überanpassung an bestimmte visuelle Merkmale.
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
data="coco8.yaml",
epochs=5,
fliplr=0.5, # Apply horizontal flip with 50% probability
hsv_h=0.015, # Adjust image hue fraction
)
Unterscheidung verwandter Begriffe
Es ist hilfreich, "Voreingenommenheit in der KI" von eng verwandten Begriffen des Glossars abzugrenzen:
-
Voreingenommenheit in der KI vs. Algorithmische Voreingenommenheit:
"Voreingenommenheit in der KI" ist der Oberbegriff, der alle Quellen von Unfairness (Daten, Menschen und System) umfasst.
"Algorithmische Voreingenommenheit" bezieht sich speziell auf die Voreingenommenheit, die durch die Berechnungsverfahren des Modells oder
Zielfunktionen.
-
Verzerrung in der KI vs. Datensatzverzerrung:
"Dataset bias" ist eine spezifische Ursache für KI-Voreingenommenheit, die in der Sammlung und Kuratierung von Trainingsmaterial
Material. Ein absolut fairer Algorithmus kann immer noch "Voreingenommenheit in der KI" aufweisen, wenn er von einem voreingenommenen Datensatz lernt.
Durch die Befolgung von Rahmenwerken wie dem
NIST AI Risk Management Framework, können Entwickler
auf den Aufbau
Verantwortungsvolle KI
Systemen arbeiten, die allen Menschen gleichermaßen dienen.