Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Alles, was Sie über Explainable AI (XAI) wissen müssen

Abirami Vina

4 Min. Lesezeit

13. Dezember 2024

Entdecken Sie, wie Explainable AI (XAI) Vertrauen aufbaut, indem sie KI-Vorhersagen in den Bereichen Gesundheitswesen, Sicherheit, autonomes Fahren und mehr transparent und zuverlässig macht.

Haben Sie schon einmal eine Antwort von einem KI-Tool (künstliche Intelligenz) wie ChatGPT gesehen und sich gefragt, wie es zu dieser Schlussfolgerung gekommen ist? Dann sind Sie dem “Black Box”-Problem der KI begegnet. Es ist ein Begriff, der sich auf die mangelnde Klarheit darüber bezieht, wie KI-Modelle Daten verarbeiten und analysieren. Selbst KI-Ingenieure und -Wissenschaftler, die regelmäßig mit modernsten KI-Algorithmen arbeiten, finden es oft schwierig, deren Funktionsweise vollständig zu verstehen. Tatsächlich verstehen nur 22 % der IT-Experten die Fähigkeiten von KI-Tools wirklich. 

Die Unsicherheit darüber, wie KI-Modelle Entscheidungen treffen, kann riskant sein, insbesondere in kritischen Bereichen wie Computer Vision im Gesundheitswesen und KI im Finanzwesen. Es werden jedoch bedeutende Fortschritte erzielt, um diese Herausforderungen anzugehen und die Transparenz zu verbessern.

Insbesondere konzentriert sich erklärbare KI (XAI) ausschließlich auf die Lösung dieses Problems. Einfach ausgedrückt, handelt es sich um eine Reihe von Prozessen und Methoden, die menschlichen Nutzern helfen, die Ergebnisse oder Ausgaben komplexer Machine-Learning-Algorithmen zu verstehen und ihnen zu vertrauen. 

XAI kann Entwicklern helfen, sicherzustellen, dass KI-Systeme wie erwartet funktionieren. Es kann KI-Unternehmen auch dabei helfen, gesetzliche Standards zu erfüllen. In diesem Artikel werden wir Explainable AI und ihre vielfältigen Anwendungsfälle untersuchen. Fangen wir an!

Die Bedeutung von erklärbarer KI

Erklärbarkeit ist der Schlüssel bei der Arbeit mit KI. Dies gilt insbesondere für den Teilbereich der KI, die Computer Vision, die in Branchen wie dem Gesundheitswesen weit verbreitet ist. Bei der Verwendung von Vision Models in solch sensiblen Branchen ist es wichtig, dass die Funktionsweise des Modells für jeden transparent und interpretierbar ist. 

Interpretierbarkeit in Computer-Vision-Modellen hilft den Benutzern, besser zu verstehen, wie eine Vorhersage getroffen wurde und welche Logik dahinter steckt. Transparenz trägt dem Rechnung, indem sie die Funktionsweise des Modells für alle verständlich macht, indem sie die Grenzen des Modells klar umreißt und sicherstellt, dass Daten ethisch verwendet werden. Zum Beispiel kann Computer Vision Radiologen helfen, gesundheitliche Komplikationen in Röntgenbildern effizient zu erkennen.

__wf_reserved_inherit
Abb. 1. Röntgenaufnahmen des Brustkorbs, die mit Vision AI analysiert wurden und gesunde, kranke, aktive und latente Tuberkulose-Klassifizierungen zeigen.

Ein Vision-System, das nur genau ist, reicht jedoch nicht aus. Das System muss auch in der Lage sein, seine Entscheidungen zu erklären. Nehmen wir an, das System könnte zeigen, welche Teile des Bildes zu seinen Schlussfolgerungen geführt haben - dann wären alle Ausgaben klarer. Ein solches Maß an Transparenz würde medizinischem Fachpersonal helfen, ihre Ergebnisse zu überprüfen und sicherzustellen, dass die Patientenversorgung medizinischen Standards entspricht. 

Ein weiterer Grund, warum Erklärbarkeit so wichtig ist, ist, dass sie KI-Unternehmen zur Rechenschaft zieht und Vertrauen bei den Nutzern aufbaut. Vertrauenswürdige KI führt dazu, dass die Nutzer darauf vertrauen, dass KI-Innovationen zuverlässig funktionieren, faire Entscheidungen treffen und Daten verantwortungsvoll verarbeiten

Wichtige Verfahren der interpretierbaren KI im Bereich Computer Vision

Nachdem wir nun erörtert haben, warum Erklärbarkeit in Computer Vision wichtig ist, wollen wir uns die wichtigsten XAI-Techniken ansehen, die in Vision AI verwendet werden.

Saliency Maps

Neuronale Netze sind Modelle, die vom menschlichen Gehirn inspiriert sind und dazu dienen, Muster zu erkennen und Entscheidungen zu treffen, indem sie Daten durch miteinander verbundene Schichten von Knoten (Neuronen) verarbeiten. Sie können verwendet werden, um komplexe Computer-Vision-Probleme mit hoher Genauigkeit zu lösen. Trotz dieser Genauigkeit sind sie von Natur aus Black Boxes. 

Saliency Maps sind eine XAI-Technik, die verwendet werden kann, um zu verstehen, was neuronale Netze sehen, wenn sie Bilder analysieren. Sie kann auch zur Fehlerbehebung bei Modellen verwendet werden, falls diese nicht wie erwartet funktionieren. 

Saliency Maps funktionieren, indem sie sich darauf konzentrieren, welche Teile eines Bildes (Pixel) die Vorhersagen eines Modells definieren. Dieser Prozess ähnelt sehr stark der Backpropagation, bei der das Modell von den Vorhersagen zurück zum Input verfolgt. Aber anstatt die Gewichte des Modells auf der Grundlage von Fehlern zu aktualisieren, betrachten wir nur, wie sehr jedes Pixel für die Vorhersage "von Bedeutung" ist. Saliency Maps sind sehr nützlich für Computer-Vision-Aufgaben wie die Bildklassifizierung.

Wenn beispielsweise ein Bildklassifizierungs-Modell vorhersagt, dass ein Bild einen Hund zeigt, können wir uns seine Saliency Map ansehen, um zu verstehen, warum das Modell denkt, dass es sich um einen Hund handelt. Dies hilft uns zu erkennen, welche Pixel den Output am meisten beeinflussen. Die Saliency Map würde alle Pixel hervorheben, die zur endgültigen Vorhersage beigetragen haben, dass das Bild einen Hund zeigt.

__wf_reserved_inherit
Abb. 2. Eine Gegenüberstellung der Eingangsbilder und ihrer Saliency Maps.

Class Activation Mapping (CAM)

Class Activation Mapping ist eine weitere XAI-Technik, die verwendet wird, um zu verstehen, auf welche Teile eines Bildes sich ein neuronales Netzwerk konzentriert, wenn es Bildklassifizierungsvorhersagen trifft. Es funktioniert ähnlich wie Saliency Maps, konzentriert sich aber darauf, wichtige Merkmale im Bild zu identifizieren, anstatt auf bestimmte Pixel. Merkmale sind Muster oder Details, wie Formen oder Texturen, die das Modell im Bild erkennt.

Methoden wie Gradient Weighted Class Activation Mapping (Grad-CAM) und Grad-CAM++ bauen auf derselben Idee auf, mit einigen Verbesserungen.

So funktioniert CAM:

  • Bevor das neuronale Netzwerk seine endgültige Entscheidung trifft, verwendet es einen Schritt namens Global Average Pooling (GAP), um die Informationen zu vereinfachen. GAP kombiniert alle Pixel in einem erkannten Muster zu einem einzigen Durchschnittswert und erstellt so eine Zusammenfassung für jede Feature Map (eine visuelle Darstellung der erkannten Muster).
  • Jeder Feature Map erhält dann eine Gewichtung, die angibt, wie wichtig sie für die Vorhersage einer bestimmten Klasse ist (wie „Vogel“ oder „Katze“).
  • Eine Einschränkung von CAM ist jedoch, dass Sie das Modell neu trainieren müssen, um diese Gewichte zu berechnen, was zeitaufwendig sein kann.

Grad-CAM verbessert dies durch die Verwendung von Gradienten, die wie Signale wirken, die zeigen, wie stark jede Feature Map die endgültige Vorhersage beeinflusst. Diese Methode vermeidet die Notwendigkeit von GAP und erleichtert es zu erkennen, worauf sich das Modell konzentriert, ohne es neu zu trainieren. Grad-CAM++ geht noch einen Schritt weiter, indem es sich nur auf positive Einflüsse konzentriert, was die Ergebnisse noch deutlicher macht.

__wf_reserved_inherit
Abb. 3. Vergleich von CAM, Grad-CAM und Grad-CAM++.

Kontrafaktische Erklärungen

Kontrafaktische Erklärungen sind ein wichtiges Element der erklärbaren KI. Eine kontrafaktische Erklärung beinhaltet die Beschreibung einer Situation oder eines Ergebnisses unter Berücksichtigung alternativer Szenarien oder Ereignisse, die nicht eingetreten sind, aber hätten eintreten können. Sie kann aufzeigen, wie Veränderungen in bestimmten Eingangsvariablen zu unterschiedlichen Ergebnissen führen, wie zum Beispiel: “Wenn X nicht passiert wäre, wäre Y nicht eingetreten.”

Wenn es um KI und Computer Vision geht, identifiziert eine kontrafaktische Erklärung die kleinste Änderung, die in einer Eingabe (z. B. einem Bild oder Daten) erforderlich ist, um ein KI-Modell dazu zu bringen, ein anderes, spezifisches Ergebnis zu erzielen. Beispielsweise könnte das Ändern der Farbe eines Objekts in einem Bild die Vorhersage eines Bildklassifizierungsmodells von „Katze“ in „Hund“ ändern.

Ein weiteres gutes Beispiel wäre die Änderung des Winkels oder der Beleuchtung in einem Gesichtserkennungssystem. Dies könnte dazu führen, dass das Modell eine andere Person identifiziert, was zeigt, wie kleine Änderungen in der Eingabe die Vorhersagen des Modells beeinflussen können.

Der einfachste Weg, diese Erklärungen zu erstellen, ist durch Ausprobieren: Sie können zufällig Teile der Eingabe ändern (z. B. Merkmale des Bildes oder der Daten), bis das KI-Modell das gewünschte Ergebnis liefert. Andere Methoden umfassen modellunabhängige Ansätze, die Optimierung- und Suchtechniken verwenden, um Änderungen zu finden, und modellspezifische Ansätze, die auf internen Einstellungen oder Berechnungen beruhen, um die erforderlichen Änderungen zu identifizieren.

Anwendungen von Explainable AI in der Computer Vision

Nachdem wir nun untersucht haben, was XAI ist und welche Schlüsseltechniken es gibt, können wir uns ansehen, wie es im wirklichen Leben eingesetzt wird. XAI hat vielfältige Anwendungen in vielen Bereichen. Lassen Sie uns einige Anwendungsfälle betrachten, die sein Potenzial verdeutlichen:

  • Sicherheitssysteme: XAI kann verwendet werden, um Sicherheitssysteme zu verbessern, indem es veränderte Bilder in Ausweisdokumenten wie Reisepässen und Führerscheinen erkennt. Dies gewährleistet die Authentizität von Bildern, stärkt die Identitätsprüfungsprozesse und verhindert betrügerische Aktivitäten in sensiblen Anwendungen.
__wf_reserved_inherit
Abb. 4. Wie XAI funktioniert, um veränderte Bilder zu erkennen.

  • Autonomes Fahren: Das Verständnis der Fähigkeiten und Einschränkungen des Vision-KI-Systems eines selbstfahrenden Autos kann ein wichtiger Teil des Testens des Autos sein, bevor es auf realen Straßen eingesetzt wird. XAI kann Automobilunternehmen helfen, Probleme klarer zu identifizieren und zu beheben.
  • Rechtssysteme: Vision-fähige Systeme zur Dokumentenanalyse werden zunehmend in der juristischen Entscheidungsfindung eingesetzt. XAI unterstützt faire Ergebnisse und ermöglicht die Überprüfung automatisierter Urteile. Es hilft Juristen auch zu verstehen, wie ein KI-Modell zu seinen Entscheidungen gelangt.
  • Wildtierüberwachung: Kamerfallen werden oft verwendet, um Wildtiere zu überwachen und Daten über Tierarten zu sammeln. XAI kann verwendet werden, um zu erklären, wie KI diese Arten in den Bildern klassifiziert. Auf diese Weise können Naturschutzbemühungen zuverlässiger und genauer sein.

Wichtigste Erkenntnisse über interpretierbare KI

Explainable AI erleichtert das Verständnis, wie KI-Systeme funktionieren und warum sie bestimmte Entscheidungen treffen. Transparenz über KI-Modelle schafft Vertrauen und Verantwortlichkeit. Wissen ist Macht und hilft, KI-Innovationen verantwortungsvoller einzusetzen. In kritischen Bereichen wie Gesundheitswesen, Sicherheit, autonomes Fahren und Rechtssysteme kann XAI verwendet werden, um Entwicklern und Benutzern zu helfen, KI-Vorhersagen zu verstehen, Fehler zu identifizieren und eine faire und ethische Nutzung sicherzustellen. Indem XAI KI transparenter macht, schließt es die Lücke zwischen Technologie und menschlichem Vertrauen und macht sie sicherer und zuverlässiger für reale Anwendungen.

Um mehr zu erfahren, besuchen Sie unser GitHub-Repository und interagieren Sie mit unserer Community. Entdecken Sie KI-Anwendungen in selbstfahrenden Autos und Landwirtschaft auf unseren Lösungsseiten. 🚀

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert