Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Verzerrung in KI

Entdecken Sie, wie Sie Verzerrungen in KI-Systemen identifizieren, abschwächen und verhindern können – mit Strategien, Tools und Beispielen aus der Praxis für eine ethische KI-Entwicklung.

Voreingenommenheit in der KI bezieht sich auf systematische Fehler oder Vorurteile, die in ein Künstliche Intelligenz (KI) eingebettet sind, die die zu unfairen, ungerechten oder diskriminierenden Ergebnissen führen. Im Gegensatz zu zufälligen Fehlern sind diese Vorurteile konsistent und wiederholbar und bevorzugen oft eine beliebige Gruppe von Benutzern oder Dateneingaben gegenüber anderen. Da Organisationen zunehmend Machine Learning (ML) in kritische Entscheidungsprozesse integrieren Entscheidungsfindungsprozesse integrieren, ist das Erkennen und Beseitigen von Vorurteilen zu einer zentralen Säule der KI-Ethik geworden. Wenn diese Probleme nicht gemildert werden, kann dies zu zu verzerrten Ergebnissen bei Anwendungen von KI in der Gesundheitsdiagnostik bis hin zur automatisierten Finanzkrediten.

Quellen für Verzerrungen in AI-Systemen

Voreingenommenheit kann in KI-Systeme in mehreren Phasen des Entwicklungszyklus eindringen. Das Verständnis dieser Ursprünge ist ist entscheidend für die Schaffung robuster und gerechter Modelle.

  • Dataset Bias: Dies ist die häufigste häufigste Quelle, die auftritt, wenn die Trainingsdaten, die zum Lernen des Modells verwendet werden, nicht die reale Population nicht genau repräsentieren. Zum Beispiel, wenn ein Bildklassifizierungsmodell trainiert hauptsächlich auf Bildern aus westlichen Ländern trainiert wird, kann es Schwierigkeiten haben, Objekte oder Szenen aus anderen Regionen zu erkennen, ein Phänomen, das oft mit Selektionsverzerrungen verbunden ist.
  • Algorithmische Verzerrung: Manchmal, kann der mathematische Aufbau des Algorithmus selbst bestehende Ungleichheiten verstärken. Bestimmte Optimierungsalgorithmen bevorzugen möglicherweise Gesamtgenauigkeit auf Kosten unterrepräsentierter Untergruppen bevorzugen und "Ausreißer", die gültige Minderheitenpopulationen darstellen, effektiv ignorieren.
  • Kognitive und menschliche Voreingenommenheit: Die subjektiven Entscheidungen von Ingenieuren bei der Datenbeschriftung oder der Auswahl von Merkmalen können ungewollt menschliche Vorurteile in das System einfließen.

Anwendungen und Auswirkungen in der realen Welt

Die Folgen der Voreingenommenheit der KI sind bei verschiedenen eingesetzten Technologien zu beobachten.

  1. Ungleichheiten bei der Gesichtserkennung: Kommerzielle Gesichtserkennungssysteme haben in der Vergangenheit haben in der Vergangenheit höhere Fehlerquoten bei der Identifizierung von Frauen und People of Color gezeigt. Forschungsprojekte wie Gender Shades haben aufgezeigt, wie nicht repräsentative Datensätze zu einer schlechten Leistung für bestimmte Bevölkerungsgruppen führen, was zu Datenschutz- und Inklusivitätsstandards.
  2. Prädiktive Polizeiarbeit und Rückfälligkeit: Algorithmen zur Vorhersage der Rückfälligkeit von Straftätern wurden kritisiert, weil sie rassistische Vorurteile aufweisen. Untersuchungen wie die ProPublica-Analyse von COMPAS zeigten, dass einige Modelle Angeklagte, die einer Minderheit angehören, fälschlicherweise als Hochrisikopersonen einstuften, was die Gefahren des Verlassens auf historische Verhaftungsdaten, die gesellschaftliche Ungleichheiten widerspiegeln.

Strategien und Instrumente zur Schadensbegrenzung

Der Umgang mit Vorurteilen erfordert einen proaktiven Ansatz, der als Fairness in der KI. Die Entwickler können verschiedene Techniken einsetzen, um Voreingenommenheit detect und zu reduzieren.

  • Datenerweiterung: Eine wirksame Methode zur Verbesserung der Modellgeneralisierung ist die Datenerweiterung. Durch die künstliche Erzeugung von Variationen vorhandener Datenpunkte - z. B. durch Spiegeln, Drehen oder Anpassen der Farbbalance von Bildern - können die Entwickler können Modelle wie Ultralytics YOLO11 auf eine breitere Palette von Eingaben.
  • Algorithmisches Auditing: Regelmäßige Tests von Modellen anhand verschiedener Benchmarks sind von entscheidender Bedeutung. Tools wie IBMs AI Fairness 360 und Fairlearn von Microsoft bieten Metriken zur Bewertung der Modellleistung in verschiedenen Untergruppen zu bewerten.
  • Transparenz: Die Annahme von Explainable AI (XAI) -Praktiken helfen Stakeholder zu verstehen , warum ein Modell bestimmte Vorhersagen macht, was es einfacher macht, diskriminierende Logik.

Code-Beispiel: Verbesserte Verallgemeinerung mit Augmentation

Das folgende Python zeigt, wie die Datenerweiterung während des Trainings mit der Methode ultralytics Paket. Dies trägt dazu bei, dass das Modell bei bestimmten Änderungen invariant wird, was möglicherweise eine Überanpassung an bestimmte visuelle Merkmale.

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

Unterscheidung verwandter Begriffe

Es ist hilfreich, "Voreingenommenheit in der KI" von eng verwandten Begriffen des Glossars abzugrenzen:

  • Voreingenommenheit in der KI vs. Algorithmische Voreingenommenheit: "Voreingenommenheit in der KI" ist der Oberbegriff, der alle Quellen von Unfairness (Daten, Menschen und System) umfasst. "Algorithmische Voreingenommenheit" bezieht sich speziell auf die Voreingenommenheit, die durch die Berechnungsverfahren des Modells oder Zielfunktionen.
  • Verzerrung in der KI vs. Datensatzverzerrung: "Dataset bias" ist eine spezifische Ursache für KI-Voreingenommenheit, die in der Sammlung und Kuratierung von Trainingsmaterial Material. Ein absolut fairer Algorithmus kann immer noch "Voreingenommenheit in der KI" aufweisen, wenn er von einem voreingenommenen Datensatz lernt.

Durch die Befolgung von Rahmenwerken wie dem NIST AI Risk Management Framework, können Entwickler auf den Aufbau Verantwortungsvolle KI Systemen arbeiten, die allen Menschen gleichermaßen dienen.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten