Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Verzerrung in KI

Entdecken Sie, wie Sie Verzerrungen in KI-Systemen identifizieren, abschwächen und verhindern können – mit Strategien, Tools und Beispielen aus der Praxis für eine ethische KI-Entwicklung.

Bias in der KI bezieht sich auf systematische Fehler oder Vorurteile in der Ausgabe eines Systems für künstliche Intelligenz (KI). Diese Verzerrungen können zu unfairen, ungerechten oder diskriminierenden Ergebnissen führen, die oft bestimmte Gruppen oder Bevölkerungsgruppen benachteiligen. Da KI-Systeme immer stärker in kritische Sektoren wie das Gesundheitswesen und das Finanzwesen integriert werden, ist das Verständnis und die Eindämmung von Bias zu einer zentralen Herausforderung für die verantwortungsvolle KI-Entwicklung geworden. Bei Bias geht es nicht um gelegentliche zufällige Fehler, sondern um ein wiederholbares Muster verzerrter Ergebnisse, das zugrunde liegende Fehler in den Daten oder im Algorithmus widerspiegelt.

Quellen für KI-Verzerrungen

KI-Verzerrungen können aus verschiedenen Quellen während des gesamten Lebenszyklus der Modellentwicklung entstehen. Die häufigsten Quellen sind:

  • Dataset Bias: Dies ist die häufigste Ursache für KI-Verzerrungen. Sie tritt auf, wenn die Trainingsdaten nicht repräsentativ für die reale Welt oder die Zielpopulation sind. Beispielsweise kann ein Datensatz für ein Einstellungstool, das hauptsächlich auf historischen Daten aus einer von Männern dominierten Branche trainiert wurde, lernen, männliche Kandidaten zu bevorzugen. Dies kann sich als Sampling Bias (Daten nicht zufällig erhoben), Selection Bias (Daten nicht repräsentativ für die Umgebung) oder Measurement Bias (inkonsistentes Data Labeling) äußern. Das Erstellen von ausgewogenen und vielfältigen Datensätzen ist ein entscheidender erster Schritt.
  • Algorithmische Verzerrung (Bias): Diese Verzerrung entsteht durch den KI-Algorithmus selbst. Einige Algorithmen können von Natur aus kleine Verzerrungen in den Daten verstärken, oder ihr Design kann bestimmte Merkmale gegenüber anderen in einer Weise priorisieren, die zu unfairen Ergebnissen führt. Die Wahl einer Loss-Funktion kann beispielsweise beeinflussen, wie ein Modell Fehler für verschiedene Untergruppen bestraft.
  • Menschliche Voreingenommenheit (Human Bias): Die Entwickler, Datenannotatoren und Benutzer von KI-Systemen können unbeabsichtigt ihre eigenen kognitiven Verzerrungen in das KI-Modell einbringen. Diese persönlichen und gesellschaftlichen Voreingenommenheiten können beeinflussen, wie Probleme formuliert, wie Daten gesammelt und annotiert und wie die Ergebnisse des Modells interpretiert werden.

Beispiele aus der Praxis

  1. Gesichtserkennungstechnologie: Viele kommerzielle Gesichtserkennungssysteme haben in der Vergangenheit höhere Fehlerraten bei der Identifizierung von Personen aus unterrepräsentierten Bevölkerungsgruppen gezeigt, insbesondere bei Frauen und People of Color. Untersuchungen von Institutionen wie dem NIST haben diese Ungleichheiten nachgewiesen, die oft auf Trainingsdatensätzen beruhen, die überwiegend weiße, männliche Gesichter enthalten.
  2. Automatisierte Einstellungswerkzeuge: Ein bekanntes Beispiel ist ein experimentelles Rekrutierungswerkzeug, das von Amazon entwickelt wurde. Es stellte sich heraus, dass es Lebensläufe bestrafte, die das Wort "Frauen" enthielten, und Absolventinnen von reinen Frauencolleges herabstufte. Das Modell lernte diese Verzerrungen aus historischen Einstellungsdaten, die über einen Zeitraum von 10 Jahren eingereicht wurden und die männliche Dominanz in der Technologiebranche widerspiegelten. Amazon gab das Projekt schließlich auf.

Bias in KI im Vergleich zu verwandten Begriffen

Es ist wichtig, KI-Bias von verwandten Konzepten zu unterscheiden:

  • Algorithmische Verzerrung vs. KI-Verzerrung: Algorithmische Verzerrung ist eine spezifische Art von KI-Verzerrung, die aus der Architektur oder der mathematischen Formulierung des Modells stammt. KI-Verzerrung ist der umfassendere Oberbegriff, der auch Verzerrungen aus Daten und menschlichen Eingriffen umfasst.
  • Dataset-Bias vs. KI-Bias: Dataset-Bias ist eine Haupt-Ursache für KI-Bias. Ein Algorithmus, der in seinem Design vollkommen fair ist, kann dennoch verzerrte Ergebnisse liefern, wenn er mit unausgewogenen oder voreingenommenen Daten trainiert wird.
  • Fairness in KI vs. KI-Bias: Fairness in KI ist das Feld, das sich der Bekämpfung von KI-Bias widmet. Während Bias das Problem ist, umfasst Fairness die Prinzipien, Metriken und Techniken, die verwendet werden, um gerechte Ergebnisse zu definieren, zu messen und zu fördern.

Umgang mit KI-Verzerrungen

Die Abschwächung von KI-Verzerrungen ist ein fortlaufender Prozess, der einen facettenreichen Ansatz während des gesamten KI-Entwicklungszyklus erfordert:

  • Datenkuratierung und -augmentation: Sammeln Sie aktiv vielfältige und repräsentative Datensätze. Nutzen Sie Techniken wie Data Augmentation und potenziell die Generierung synthetischer Daten, um die Repräsentation über verschiedene Gruppen hinweg auszugleichen. Erkunden Sie Ressourcen wie die Ultralytics Datasets-Sammlung für verschiedene Datenquellen.
  • Fairness-Metriken und Auditing: Definieren und messen Sie Fairness mithilfe geeigneter Metriken während der Modellbewertung. Überprüfen Sie Modelle regelmäßig auf verzerrte Leistung in verschiedenen Untergruppen vor und nach der Bereitstellung. Toolkits wie Fairlearn und die AI Fairness 360 können dabei helfen.
  • Transparenz und Erklärbarkeit: Verwenden Sie Explainable AI (XAI)-Techniken, um das Modellverhalten zu verstehen und potenzielle Quellen von Verzerrungen zu identifizieren. Erfahren Sie mehr über XAI-Konzepte. Das Dokumentieren von Datensätzen und Modellen mithilfe von Frameworks wie Data Sheets for Datasets und Model Cards verbessert ebenfalls die Transparenz.
  • Ethische Rahmenbedingungen und Governance: Implementieren Sie starke KI-Ethik-Richtlinien und Governance-Strukturen unter Bezugnahme auf Rahmenwerke wie das NIST AI Risk Management Framework, um die Entwicklung und den Einsatz zu steuern.

Plattformen wie Ultralytics HUB bieten Werkzeuge, die die Entwicklung fairer KI-Systeme unterstützen, indem sie eine sorgfältige Datensatzverwaltung ermöglichen, das Training von benutzerdefinierten Modellen erleichtern und die Überwachung der Ultralytics YOLO-Modellleistung ermöglichen. Das Schaffen von Bewusstsein und die Verankerung von Fairnessprinzipien, die oft in Foren wie der ACM FAccT-Konferenz diskutiert werden, sind entscheidend für die Schaffung von Technologien, die der Gesellschaft gleichermaßen zugute kommen.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert