Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Eine Einführung in das aufstrebende Gebiet der neurosymbolischen KI

Abirami Vina

6 Minuten Lesezeit

November 13, 2025

Erfahren Sie, wie neurosymbolische KI darauf abzielt, Lernen und Logik zu kombinieren, um Systeme zu entwickeln, die den Kontext verstehen und transparentere, erklärbare Entscheidungen treffen können.

Dank des rasanten Wachstums der künstlichen Intelligenz (KI) und der zunehmenden Verfügbarkeit von Rechenleistung werden fortschrittliche KI-Modelle heute schneller als je zuvor auf den Markt gebracht. In der Tat treibt der KI-Bereich in vielen Branchen bedeutende Innovationen voran. 

Im Gesundheitswesen beispielsweise werden KI-Systeme zur Unterstützung bei Aufgaben wie der Analyse medizinischer Bilder zur Früherkennung eingesetzt. Doch wie jede Technologie hat auch die KI ihre Grenzen. 

Ein großes Problem ist die Transparenz. Ein Objekterkennungsmodell kann beispielsweise einen Tumor in einem MRT-Gehirnscan genau lokalisieren, aber es kann schwierig sein zu verstehen, wie das Modell zu dieser Schlussfolgerung gekommen ist. Diese mangelnde Erklärbarkeit erschwert es Ärzten und Forschern, KI-Ergebnissen voll zu vertrauen oder sie zu validieren.

Genau aus diesem Grund wächst das Interesse am aufstrebenden Gebiet der neurosymbolischen KI. Neurosymbolische KI kombiniert die Stärken der Mustererkennung von Deep Learning mit der strukturierten, regelbasierten Argumentation der symbolischen KI. Ziel ist es, Systeme zu schaffen, die genaue Vorhersagen machen, aber auch ihre Überlegungen auf eine für Menschen verständliche Weise erklären können.

In diesem Artikel werden wir untersuchen, wie neurosymbolische künstliche Intelligenz funktioniert und wie sie Lernen und Denken zusammenbringt, um transparentere, kontextbewusste Systeme zu entwickeln. Legen wir los!

Die zwei Seiten der neuro-symbolischen KI: Lernen und logisches Denken

Bevor wir in die neurosymbolische KI eintauchen, sollten wir uns die beiden Teilbereiche, die sie vereint, genauer ansehen: Deep Learning und symbolische KI. 

Deep Learning konzentriert sich auf die Erkennung von Mustern in Daten, während symbolische KI Regeln, Logik oder gesunden Menschenverstand verwendet, um Probleme zu lösen. Beide haben ihre Stärken, aber auch ihre Grenzen. Durch ihre Kombination schafft die neurosymbolische KI Systeme, die sowohl aus Daten lernen als auch ihre Entscheidungen klarer erklären können.

Ein Überblick über Deep Learning

Deep Learning ist ein Zweig des maschinellen Lernens, bei dem künstliche neuronale Netze eingesetzt werden, die sich an der Informationsverarbeitung des Gehirns orientieren. Diese Netzwerke lernen, indem sie große Datenmengen analysieren und ihre internen Verbindungen anpassen, um die Leistung zu verbessern. 

Dadurch können sie Muster in Bildern, Tönen und Texten erkennen, ohne dass für jede Situation von Hand ausgearbeitete Regeln erforderlich sind. Aus diesem Grund ist Deep Learning für wahrnehmungsorientierte Aufgaben wie Bilderkennung, Sprachverarbeitung und Sprachübersetzung äußerst effektiv. 

Ein gutes Beispiel ist ein Computer-Vision-Modell, das darauf trainiert ist, Objekte in Bildern zu segmentieren. Mit genügend beschrifteten Beispielen kann es lernen, Straßen, Fahrzeuge und Fußgänger in Echtzeit-Verkehrsaufnahmen zu unterscheiden.

Trotz ihrer Genauigkeit fällt es Deep-Learning-Modellen jedoch oft schwer, klar zu erklären, wie sie zu einem bestimmten Ergebnis gekommen sind. Diese Herausforderung, die gemeinhin als Black-Box-Problem bezeichnet wird, erschwert es den Nutzern, die Entscheidungen des Modells zu interpretieren oder zu überprüfen, insbesondere in sensiblen Bereichen wie dem Gesundheits- oder Finanzwesen. Dies ist insofern von Bedeutung, als verantwortungsvolle KI Transparenz, Vertrauen und die Möglichkeit voraussetzt, zu verstehen, warum ein Modell eine bestimmte Vorhersage getroffen hat.

Symbolische KI erforschen

Die symbolische KI verfolgt einen stärker strukturierten Ansatz für Intelligenz und Entscheidungsfindung. Sie stellt Wissen mithilfe von Symbolen dar und wendet logische Regeln an, um mit diesem Wissen zu arbeiten, ähnlich wie wir das Denken und die Sprache nutzen, um Probleme zu lösen. Jeder Schritt im Denkprozess ist definiert, wodurch die Entscheidungen der symbolischen KI transparent und leichter zu erklären sind.

Symbolisches Wissen funktioniert besonders gut bei Aufgaben, die klaren und genau definierten Regeln folgen, wie Planung, Zeitplanung oder die Verwaltung strukturierten Wissens. Symbolische KI hat jedoch Schwierigkeiten mit unstrukturierten Daten oder Situationen, die sich nicht in vordefinierte Kategorien einordnen lassen.

Ein gängiges Beispiel für symbolische Ansätze in der Praxis sind frühe Schachprogramme. Sie folgten handgefertigten Regeln und festen Strategien, anstatt aus früheren Partien zu lernen oder sich auf verschiedene Gegner einzustellen. Infolgedessen neigten sie dazu, starr und vorhersehbar zu spielen.

Abbildung 1. Ein Blick auf die Struktur der KI und ihrer Teilbereiche. (Bild vom Autor)

Was ist neurosymbolische KI?

In den 2010er Jahren, als sich Deep Learning immer mehr durchsetzte, suchten Forscher nach Möglichkeiten, über die einfache Mustererkennung hinauszugehen und Beziehungen und Zusammenhänge zu verstehen. Dieser Wandel ermöglichte es KI-Modellen, nicht nur Objekte in einer Szene zu erkennen, wie z. B. eine Katze und eine Matte, sondern auch zu interpretieren, wie diese Objekte zusammenhängen, z. B. zu erkennen, dass die Katze auf der Matte sitzt.

Diese Fortschritte haben jedoch auch eine wesentliche Einschränkung aufgezeigt. Deep-Learning-Modelle können Muster extrem gut erkennen, aber sie haben oft Schwierigkeiten, ihre Schlussfolgerungen zu erklären oder mit ungewohnten Situationen umzugehen. Diese erneute Aufmerksamkeit für das logische Denken führte die Forscher zu einem Bereich zurück, der bereits seit den 1980er Jahren existiert: die neurosymbolische KI.

Die neurosymbolische KI integriert Deep Learning und symbolische KI. Sie ermöglicht es Modellen, auf dieselbe Weise wie beim Deep Learning aus Beispielen zu lernen und gleichzeitig Logik und Schlussfolgerungen anzuwenden, wie es bei der symbolischen KI der Fall ist. 

Einfach ausgedrückt, kann die neurosymbolische KI Informationen erkennen, Zusammenhänge verstehen und ihre Entscheidungen klarer begründen. Dieser Ansatz bringt uns der Entwicklung von KI-Systemen näher, die sich zuverlässiger und menschenähnlicher verhalten.

Abb. 2. Neuro-symbolische KI verstehen (Bild vom Autor)

Die Grundlagen der neurosymbolischen KI

Neuro-symbolische Architekturen vereinen Lernen und logisches Denken in einem einzigen Rahmen. Sie besteht in der Regel aus drei Hauptbestandteilen: einer neuronalen Wahrnehmungsschicht, die Rohdaten interpretiert, einer Schicht für symbolisches Denken, die Logik anwendet, und einer Integrationsschicht, die beide miteinander verbindet. Als Nächstes werden wir uns die einzelnen Schichten genauer ansehen.

Die neuronale Wahrnehmungsschicht

Die neuronale Wahrnehmungskomponente verarbeitet unstrukturierte Daten, z. B. Bilder, Videos, Text oder Audio, und wandelt sie in interne Darstellungen um, mit denen das System arbeiten kann. Sie verwendet in der Regel Deep-Learning-Modelle, um Muster zu erkennen und Objekte oder Merkmale in den Eingaben zu identifizieren. In diesem Stadium erkennt das System, was in den Daten vorhanden ist, aber es macht noch keine Aussagen über Bedeutung, Beziehungen oder Kontext.

Hier sind einige gängige Typen von Deep-Learning-Modellen, die in dieser Ebene verwendet werden:

  • Faltungsneuronale Netze (CNNs): Es handelt sich um eine Art neuronales Netz, das für die Verarbeitung gitterförmiger Daten wie z. B. Bilder konzipiert ist. CNNs verwenden Faltungsfilter, um ein Bild zu durchsuchen und Muster wie Kanten, Texturen und Formen zu erkennen. Durch Stapeln dieser Muster lernen sie, Objekte wie Autos, Früchte und Menschen zu erkennen.
  • Transformatoren: Transformatoren sind Modelle, die verstehen sollen, wie sich verschiedene Teile einer Eingabe zueinander verhalten. Anstatt Informationen streng der Reihe nach zu lesen, können sie mehrere Teile der Daten gleichzeitig betrachten und entscheiden, welche Teile am wichtigsten sind. Dies hilft ihnen, den Kontext in Texten, Bildern oder beidem zu verstehen. Aufgrund dieser Flexibilität sind Transformatoren die Kernarchitektur hinter den meisten modernen Sprachmodellen und vielen visuellen Sprachsystemen.
  • Rekurrente neuronale Netze (RNNs): Dieser Modelltyp ist für die Analyse sequenzieller Daten, wie Sprache oder Zeitreihensignale, konzipiert. Es behält frühere Eingaben im Gedächtnis, was bedeutet, dass seine Vorhersagen den zeitlichen Kontext berücksichtigen können.

Letztlich extrahieren und repräsentieren diese neuronalen Modelle aussagekräftige Merkmale aus den Rohdaten. Diese Ausgabe wird dann zum Input für die Ebene der symbolischen Schlussfolgerungen, die interpretiert und begründet, was das System erkannt hat.

Die Ebene des symbolischen Denkens

Die Ebene des symbolischen Denkens nimmt die von der neuronalen Wahrnehmungsebene erzeugten Informationen auf und macht sie mithilfe von Logik verständlich. Anstatt nur mit Mustern zu arbeiten, stützt sie sich auf Dinge wie Regeln, Wissensgraphen, Wissensdatenbanken und Ontologien (organisierte Beschreibungen von Konzepten und deren Beziehung zueinander). Diese helfen dem System zu verstehen, wie verschiedene Elemente zusammenpassen und welche Handlungen in einer bestimmten Situation sinnvoll sind.

In einem selbstfahrenden Auto kann die neuronale Wahrnehmungsschicht beispielsweise eine rote Ampel auf dem Kamerabild erkennen. Die Ebene des symbolischen Denkens kann dann eine Regel anwenden wie: "Wenn die Ampel rot ist, muss das Fahrzeug anhalten." Da die Schlussfolgerungen auf klaren Regeln beruhen, sind die Entscheidungen des Systems leichter zu erklären und zu überprüfen, was besonders in Situationen wichtig ist, in denen Sicherheit und Verantwortlichkeit eine Rolle spielen.

Die Integrationsschicht

Die Integrationsschicht verbindet die neuronale Wahrnehmungsschicht und die Schicht für symbolisches Denken und stellt sicher, dass Lernen und Denken zusammenarbeiten. In der einen Richtung wandelt sie die Ausgaben von neuronalen Modellen (z. B. das Erkennen eines Fußgängers) in symbolische Darstellungen um, die das Objekt und seine Eigenschaften beschreiben.

In der anderen Richtung werden symbolische Regeln (z. B. "ein Fahrzeug muss anhalten, wenn sich ein Fußgänger auf einem Zebrastreifen befindet") in Signale übersetzt, die die neuronalen Modelle steuern. Dies kann die Hervorhebung relevanter Bereiche eines Bildes, die Beeinflussung der Aufmerksamkeit oder die Gestaltung der Entscheidungspfade des Modells beinhalten.

Dieser wechselseitige Austausch bildet eine Rückkopplungsschleife. Die neuronale Seite gewinnt durch symbolische Regeln an Struktur und Interpretierbarkeit, während sich die symbolische Seite auf der Grundlage von Daten aus der realen Welt besser anpassen kann. Techniken wie logische neuronale Netze (LNN) ermöglichen diese Interaktion, indem sie logische Beschränkungen direkt in neuronale Architekturen einbetten.

Durch die Verknüpfung von Wahrnehmung und Denken auf diese Weise kann die neurosymbolische KI Entscheidungen treffen, die sowohl genau als auch leichter zu interpretieren sind. Viele Forscher sehen in diesem Ansatz einen vielversprechenden Schritt hin zu einer zuverlässigeren und menschengerechteren KI und möglicherweise eine Grundlage für künftige Fortschritte bei der allgemeinen künstlichen Intelligenz (AGI).

Anwendungen der neuro-symbolischen AI

Nachdem wir nun ein besseres Verständnis davon haben, was eine neurosymbolische KI ist und wie sie funktioniert, wollen wir uns einige Anwendungsfälle aus der Praxis ansehen.

Sicherer fahren: Vom Sehen und Verstehen von Fußgängern

Autonome Fahrzeuge müssen ihre Umgebung kennen, um sicher zu fahren. Sie nutzen Technologien wie Computer Vision, um Fußgänger, Fahrzeuge, Fahrbahnmarkierungen und Verkehrsschilder zu erkennen.

Deep-Learning-Modelle können diese Objekte zwar genau identifizieren, aber sie verstehen nicht immer, was diese Objekte im Kontext bedeuten oder wie sie in einer realen Situation zueinander in Beziehung stehen. So kann ein neuronales Modell beispielsweise einen Fußgänger auf einem Zebrastreifen erkennen, aber nicht sagen, ob er gerade überqueren will oder nur steht und wartet. 

Neurosymbolische KI versucht, diese Lücke zu schließen, indem sie selbstfahrende Fahrzeuge in die Lage versetzt, visuelle Erkennung mit logischem Denken zu kombinieren, so dass sie Situationen interpretieren können, anstatt nur Objekte zu identifizieren. Jüngste KI-Forschung hat gezeigt, dass Systeme, die neuronale Wahrnehmung mit symbolischen Regeln kombinieren, die Vorhersage des Fußgängerverhaltens verbessern können.

Bei diesen Systemen analysiert die neuronale Komponente visuelle Hinweise wie die Haltung, Bewegung und Position eines Fußgängers. Die symbolische Komponente wendet dann logische Regeln an und berücksichtigt Faktoren wie die Frage, ob sich die Person in der Nähe eines Zebrastreifens befindet oder was das aktuelle Verkehrssignal anzeigt.

Durch die Kombination dieser beiden Perspektiven kann das neuro-symbolische System mehr tun, als nur einen Fußgänger zu erkennen. Es kann eine vernünftige Vorhersage darüber treffen, ob der Fußgänger wahrscheinlich die Straße überqueren wird, und es kann erklären, warum es diese Entscheidung getroffen hat. Dies führt zu einem sichereren und transparenteren Verhalten in autonomen Fahrzeugen.

Abbildung 3. Vorhersagen auf der Grundlage des beobachteten Fußgängerverhaltens mit Hilfe neurosymbolischer KI.(Quelle)

Logische Interpretation bei der Beantwortung visueller Fragen

Eine weitere wichtige Anwendung der neurosymbolischen KI ist die Beantwortung visueller Fragen (VQA). VQA-Systeme sind darauf ausgelegt, Fragen zu Bildern zu beantworten.

Es vereint große Sprachmodelle (LLMs) und visuelle Modelle, um multimodale Schlussfolgerungen zu ziehen, indem es das, was das System sieht, mit dem, was es versteht, kombiniert. Wenn einem VQA-System beispielsweise ein Bild gezeigt wird und es gefragt wird: "Steht die Tasse auf dem Tisch?", muss es die Objekte erkennen, aber auch die Beziehung zwischen ihnen verstehen. Es muss feststellen, ob sich die Tasse tatsächlich auf dem Tisch in der Szene befindet.

In einer kürzlich durchgeführten Studie wurde gezeigt, wie neurosymbolische KI die VQA durch die Integration von neuronaler Wahrnehmung und symbolischer Schlussfolgerung verbessern kann. In dem vorgeschlagenen System analysiert das neuronale Netzwerk zunächst das Bild, um Objekte und ihre Attribute, wie Farbe, Form oder Größe, zu erkennen. 

Die Komponente des symbolischen Denkens wendet dann logische Regeln an, um zu interpretieren, wie sich diese Objekte zueinander verhalten, und um die Frage zu beantworten. Auf die Frage "Wie viele graue Zylinder sind in der Szene?" identifiziert der neuronale Teil alle Zylinder und ihre Farben, und der symbolische Teil filtert sie anhand der Kriterien und zählt die richtigen.

Abbildung 4. Beispiele für VQA-Szenarien, in denen abstraktes Wissen und Logik erforderlich sind.(Quelle)

Diese Forschung zeigt, wie die neurosymbolische VQA über die bloße Bereitstellung von Antworten hinausgehen kann. Da das Modell die Schritte aufzeigen kann, die es unternommen hat, um zu einer Schlussfolgerung zu gelangen, unterstützt es erklärbare KI, bei der Systeme Vorhersagen machen und ihre Argumentation auf eine für Menschen verständliche Weise begründen.

Vor- und Nachteile der neurosymbolischen KI

Hier sind einige der wichtigsten Vorteile der neurosymbolischen KI:

  • Stärkere Argumentationsfähigkeiten: Im Gegensatz zu reinen Deep-Learning-Modellen kann die neurosymbolische KI Aufgaben ausführen, die mehrstufiges Denken, Planung, Regelbefolgung und den Umgang mit strukturierten Wissensbereichen erfordern, in denen die symbolische KI traditionell überragend ist.
  • Anpassungsfähigkeit: Diese Systeme erbringen gute Leistungen bei neuen oder unbekannten Aufgaben, da sie logische Schlussfolgerungen ziehen können, die über das hinausgehen, worauf sie trainiert wurden. Anstatt sich nur Daten zu merken, verstehen sie Beziehungen und Muster.
  • Robustheit gegenüber Rauschen und Mehrdeutigkeit: Logische Einschränkungen können helfen, Fehler zu vermeiden, wenn die Daten verrauscht, unvollständig oder mehrdeutig sind. Die Argumentationsschicht kann Regeln durchsetzen, die die neuronalen Vorhersagen leiten oder korrigieren.

Trotz ihres Potenzials befindet sich die neurosymbolische KI noch in der Entwicklung und ist mit einigen praktischen Herausforderungen verbunden. Hier sind einige der wichtigsten Einschränkungen:

  • Komplexe Integration: Während dieser hybride Rahmen eine gute Interpretierbarkeit bietet, bleibt die Entwicklung von Algorithmen, die Wahrnehmung und Schlussfolgerungen zusammenführen, eine Herausforderung.
  • Skalierbarkeit: Symbolische Schlussfolgerungen können bei großen Wissensgraphen oder komplexen Regelsätzen langsam oder rechenintensiv werden. Dies kann den effizienten Einsatz von Echtzeitanwendungen wie autonomes Fahren, Videoverarbeitung oder umfangreiche Wissensabfragen erschweren.
  • Robustheit der Argumentation: Wenn symbolische Regeln zu starr sind, können Systeme in mehrdeutigen oder unvorhersehbaren realen Szenarien Schwierigkeiten haben. Das Gleichgewicht zwischen flexiblem Lernen und zuverlässiger Schlussfolgerung ist immer noch eine Herausforderung.

Wesentliche Erkenntnisse

Die neurosymbolische KI ist ein wichtiger Schritt auf dem Weg zur Entwicklung von KI-Systemen, die nicht nur die Welt wahrnehmen, sondern auch über sie nachdenken und ihre Entscheidungen erklären können. Im Gegensatz zu herkömmlichen Deep-Learning-Systemen, die sich hauptsächlich auf aus Daten gelernte Muster stützen, kombiniert die neurosymbolische KI statistisches Lernen mit strukturierter Logik und Wissen. Sie ersetzt das Deep Learning nicht, sondern baut darauf auf und bringt uns der Entwicklung von KI, die auf eine menschenähnliche Weise verstehen und argumentieren kann, ein Stück näher.

Werden Sie Mitglied unserer Community und erkunden Sie unser GitHub-Repository. Besuchen Sie unsere Lösungsseiten, um verschiedene Anwendungen von KI in der Landwirtschaft und Computer Vision im Gesundheitswesen zu entdecken. Entdecken Sie unsere Lizenzierungsoptionen und beginnen Sie mit dem Aufbau Ihres Vision AI-Projekts!

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten