Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Kantenerkennung in der Bildverarbeitung. Lernen Sie Sobel, Canny und andere Algorithmen zur Kantenerkennung, um Kanten präzise zu erkennen und eine robuste Kantenerkennung zu erzielen.
Als Menschen erkennen wir beim Betrachten eines Bildes auf natürliche Weise die Kanten von Objekten, folgen ihren Kurven und nehmen die Texturen auf ihren Oberflächen wahr. Für einen Computer beginnt das Verständnis jedoch auf der Ebene der einzelnen Pixel.
Ein Pixel, die kleinste Einheit eines digitalen Bildes, speichert Farbe und Helligkeit an einem einzigen Punkt. Durch die Verfolgung von Änderungen dieser Pixelwerte über ein Bild hinweg kann ein Computer Muster erkennen, die wichtige Details enthüllen.
Insbesondere die Bildverarbeitung verwendet Pixeldaten, um wesentliche Merkmale hervorzuheben und Ablenkungen zu entfernen. Eine gängige Technik der Bildverarbeitung ist die Kantenerkennung, die Punkte identifiziert, an denen sich Helligkeit oder Farbe stark ändern, um Objekte zu umreißen, Grenzen zu markieren und Strukturen hinzuzufügen.
Dies ermöglicht es Computern, Formen zu trennen, Dimensionen zu messen und zu interpretieren, wie Teile einer Szene miteinander verbunden sind. Die Kantenerkennung ist oft der erste Schritt in der fortgeschrittenen Bildanalyse.
Abb. 1. Beispiel, das das Originalbild zusammen mit Ausgaben verschiedener Kantenerkennungsmethoden zeigt. (Quelle)
In diesem Artikel werden wir uns ansehen, was Kantenerkennung ist, wie sie funktioniert und welche realen Anwendungen es gibt. Los geht's!
Konzepte der Kantenerkennung
Die Kantenerkennung konzentriert sich auf die Suche nach Stellen in einem Bild, an denen sich Helligkeit oder Farbe merklich von einem Punkt zum nächsten ändert. Wenn die Änderung gering ist, wirkt der Bereich glatt. Wenn die Änderung stark ist, markiert sie oft die Grenze zwischen zwei verschiedenen Regionen.
Hier sind einige Gründe, warum diese Pixeländerungen auftreten:
Diskontinuitäten der Oberflächennormalen: Wenn zwei Oberflächen in einem Winkel aufeinandertreffen, wie die Ecke einer Wand oder die Kante einer Kiste, erzeugt diese scharfe Änderung der Ausrichtung eine deutliche Grenze im Bild.
Tiefendiskontinuitäten: Sie treten dort auf, wo sich Objekte in unterschiedlichen Entfernungen von der Kamera befinden, wodurch eine sichtbare Trennung entsteht, die dem System hilft, sie zu unterscheiden.
Änderungen der Oberflächenfarbe oder -textur: Dies tritt auf, wenn ein Bereich eine andere Farbe oder Textur als der angrenzende Bereich aufweist, wodurch eine sichtbare Trennung entsteht.
Beleuchtungsänderungen: Sie entstehen durch Änderungen der Beleuchtung, einschließlich Schatten oder Glanzlichter auf Oberflächen, wodurch sichtbare Trennungen entstehen, selbst wenn die Oberflächen selbst glatt oder durchgehend sind.
Abb. 2. Verschiedene Arten von Kanten-Diskontinuitäten in Bildern. (Quelle)
Wie funktioniert Kantenerkennung?
Die Kantenerkennung beginnt in der Regel damit, ein Farbbild in ein Graustufenbild umzuwandeln, sodass jeder Punkt nur die Helligkeit anzeigt. Dies erleichtert es dem Algorithmus, sich auf Helligkeits- und Dunkelheitsunterschiede anstelle von Farben zu konzentrieren.
Als Nächstes können spezielle Filter das Bild scannen, um Stellen zu finden, an denen sich die Helligkeit plötzlich ändert. Diese Filter berechnen, wie stark sich die Helligkeit ändert, was als Gradient bezeichnet wird. Ein höherer Gradient wird durch einen größeren Unterschied zwischen nahegelegenen Punkten verursacht, was oft ein Signal für eine Kante ist.
Der Algorithmus verfeinert dann das Bild weiter, entfernt kleine Details und behält nur die wichtigsten Linien und Formen bei. Das Ergebnis ist eine klare Kontur und ein Ausgabebild, das für weitere Analysen verwendet werden kann.
Evolution der Kantendetektion und Bildverarbeitung
Bevor wir uns eingehender mit der Kantenerkennung befassen, wollen wir erörtern, wie sie sich im Laufe der Zeit entwickelt hat.
Die Bildverarbeitung begann mit einfachen, regelbasierten Methoden wie Thresholding und Filterung, um Bilder zu bereinigen und zu verbessern. Im analogen Zeitalter bedeutete dies, mit Fotos oder Filmen unter Verwendung von optischen Filtern, Vergrößerungsgläsern oder chemischen Behandlungen zu arbeiten, um Details herauszuarbeiten.
Techniken wie Kontrastanpassung, Rauschunterdrückung, Anpassung der Bildintensität und grundlegende Kantenerkennung trugen dazu bei, die Eingangsbilder klarer zu machen und Formen und Texturen hervorzuheben. In den 1960er und 70er Jahren eröffnete der Übergang von der analogen zur digitalen Verarbeitung den Weg für moderne Analysen in Bereichen wie Astronomie, medizinische Bildgebung und Satellitenüberwachung.
In den 1980er und 90er Jahren ermöglichten schnellere Computer die Bewältigung komplexerer Aufgaben wie Merkmalsextraktion, Formerkennung und grundlegende Objekterkennung. Algorithmen wie der Sobel-Operator und Canny boten eine präzisere Kantenerkennung, während die Mustererkennung in Bereichen von der industriellen Automatisierung bis zum Lesen von gedrucktem Text durch optische Zeichenerkennung Anwendung fand.
Kantenerkennung und Computer Vision im 21. Jahrhundert
Heute haben stetige Fortschritte in der Technologie zur Entwicklung von Computer Vision geführt. Vision AI oder Computer Vision ist ein Zweig der KI, der sich darauf konzentriert, Maschinen das Interpretieren und Verstehen visueller Informationen beizubringen.
Während die traditionelle Bildverarbeitung, wie z. B. Double Thresholding (das Bilder klarer macht, indem es starke Kanten beibehält und schwache entfernt) und die Kantendetektion, festen Regeln folgte und nur bestimmte Aufgaben bewältigen konnte, verwendet Computer Vision datengesteuerte Modelle, die aus Beispielen lernen und sich an neue Situationen anpassen können.
Heutzutage gehen Bildgebungssysteme weit über die reine Verbesserung von Bildern oder die Erkennung von Kanten hinaus. Sie können Objekte erkennen, Bewegungen verfolgen und den Kontext einer ganzen Szene verstehen.
Eine der wichtigsten Techniken, die dies ermöglichen, ist die Faltung (Convolution). Eine Faltungsoperation ist ein Prozess, bei dem kleine Filter (auch Kernel genannt) ein Bild scannen, um wichtige Muster wie Kanten, Ecken und Texturen zu finden. Diese Muster werden zu den Bausteinen, die Computer-Vision-Modelle verwenden, um Objekte zu erkennen und zu verstehen.
Beispielsweise nutzen Computer Vision Modelle wie Ultralytics YOLO11 diese auf Faltung basierenden Merkmale, um anspruchsvolle Aufgaben wie die Instanzsegmentierung durchzuführen. Dies steht in engem Zusammenhang mit der Kantenerkennung, da die Instanzsegmentierung eine genaue Umrandung der Grenzen jedes Objekts in einem Bild erfordert.
Während die Kantendetektion sich auf das Auffinden von Intensitätsänderungen in Kantenpixeln konzentriert, um Objektkanten zu markieren, baut die Instanzsegmentierung auf dieser Idee auf, um Kanten zu erkennen, jedes Objekt zu klassifizieren und in seinen eigenen Bereich zu unterteilen.
Abb. 3. Ein Blick auf die Verwendung von YOLO11 und Instanzsegmentierung. (Quelle)
Algorithmen und Ansätze zur Kantenerkennung
Selbst mit dem Wachstum von Computer Vision ist die Bildverarbeitung immer noch ein wichtiger Bestandteil vieler Anwendungen. Das liegt daran, dass Computer Vision oft auf grundlegenden Bildvorverarbeitungsschritten aufbaut.
Vor dem Erkennen von Objekten oder dem Verstehen einer Szene bereinigen Systeme in der Regel das Bild, reduzieren Rauschen und finden Kanten, um wichtige Details hervorzuheben. Diese Schritte machen fortschrittliche Modelle genauer und effizienter.
Als Nächstes wollen wir einige der gängigsten Bildverarbeitungsalgorithmen zur Kantenerkennung und ihre Funktionsweise untersuchen.
Sobel-Kantendetektion
Die Sobel-Kantendetektion ist eine Schlüsselmethode, um die Konturen von Objekten in einem Bild zu finden. Anstatt jedes Detail auf einmal zu analysieren, konzentriert sie sich auf Bereiche, in denen sich die Helligkeit von einem Pixel zum nächsten benachbarten Pixel stark ändert.
Diese plötzlichen Veränderungen markieren in der Regel den Punkt, an dem ein Objekt endet und ein anderes beginnt oder an dem ein Objekt auf den Hintergrund trifft. Durch die Isolierung dieser Kanten wandelt Sobel ein komplexes Bild in eine sauberere Kontur um, die für andere Systeme leichter zu verarbeiten ist, z. B. für die Verfolgung von Bewegungen, die Erkennung von Formen oder die Erkennung von Objekten.
Man kann sich die Sobel-Kantenerkennung als einen Gradientendetektor vorstellen, der misst, wie sich die Intensität über ein Bild verändert. Im Kern funktioniert dies durch eine Faltungsoperation: Kleine Matrizen, so genannte Kernel, werden über das Bild geschoben und gewichtete Summen benachbarter Pixelwerte berechnet.
Diese Kernel sind so konzipiert, dass sie Helligkeitsänderungen entlang horizontaler und vertikaler Richtungen hervorheben. Im Gegensatz zu Deep-Learning-Modellen, bei denen Kernel aus Daten gelernt werden, verwendet Sobel feste Kernel, um Kanten effizient hervorzuheben, ohne dass ein Training erforderlich ist.
Hier ist eine genauere Betrachtung der Funktionsweise der Sobel-Kantenerkennungsmethode:
Verwendung von zwei 3×3-Filtern: Diese Methode verwendet zwei winzige 3×3-Gitter, sogenannte Filter. Stellen Sie sie sich wie Schablonen vor, die über das Bild in horizontaler (x-Richtung) und vertikaler Richtung (y-Richtung) gleiten. Ein Gitter ist dafür ausgelegt, horizontale Kanten zu finden, und das andere für vertikale Kanten.
Gradient berechnen: Jeder Filter findet heraus, wie schnell sich die Helligkeit ändert, und die Gradientenrichtung. Eine grosse Veränderung bedeutet eine mögliche Kante.
Kombination der Ergebnisse: Die horizontalen und vertikalen Ergebnisse werden kombiniert, um die Gesamtstärke und -richtung der Kanten an jedem Pixel zu bestimmen.
Kantenerkennung: Pixel mit einer hohen Gradientenstärke werden als starke Kanten markiert.
Konturen hervorheben: Diese Kanten helfen, Objektformen zu definieren und verschiedene Regionen im Bild zu trennen.
Abb. 4. Die Sobel-Kantenerkennung kann die Hauptumrisse eines Eingangsbildes hervorheben und eine Kantenkarte erzeugen. (Quelle)
Canny-Kantenerkennung
Die Canny-Kantenerkennung ist eine weitere beliebte Methode, um Kanten in einem Bild zu finden. Sie ist dafür bekannt, saubere und präzise Konturen zu erzeugen. Im Gegensatz zu einfachen Kantenerkennungstechniken folgt sie einer Reihe sorgfältig entwickelter Schritte, um Rauschen herauszufiltern, Grenzen zu schärfen und sich auf die wichtigsten Kanten zu konzentrieren.
Hier ist ein kurzer Überblick über die Funktionsweise eines Canny-Kantendetektors:
Glättung des Bildes: Das Bild wird zuerst mit einem Gaußschen Filter verschwommen, einer Glättungstechnik, die Rauschen und kleine Details reduziert, die fälschlicherweise für Kanten gehalten werden könnten.
Erkennung von Helligkeitsänderungen: Der Algorithmus sucht dann nach abrupten Helligkeitsänderungen und misst mithilfe von Gradientenberechnungen die Stärke und Richtung dieser Änderungen.
Ausdünnen der Kanten: Nur die stärksten Punkte entlang jeder erkannten Linie werden beibehalten, während schwächere Punkte entfernt werden, was zu klaren, sauberen Kanten führt.
Klassifizierung von Kanten: Jedes Pixel wird basierend auf Schwellenwerten der Helligkeitsänderung als stark, schwach oder keine Kante gekennzeichnet.
Abschließende Bereinigung: Schwache Kanten, die mit starken verbunden sind, werden beibehalten; alle anderen werden verworfen, so dass nur noch klare, verbundene Grenzen übrig bleiben.
Abb. 5. Originalbild und das entsprechende Ausgabebild nach Verwendung des Canny-Kantendetektors. (Quelle)
Da die Canny-Kantenerkennung genaue Ergebnisse liefert und gleichzeitig Rauschen herausfiltert, wird sie häufig in Bereichen eingesetzt, in denen Präzision wichtig ist. Sie wird beispielsweise in Branchen wie der medizinischen Bildgebung, der Satellitenkartierung, dem Scannen von Dokumenten und der Robot Vision eingesetzt.
Gradientenbasiert vs. Gaussian-basierte Kantenerkennung
Bisher haben wir uns Sobel und Canny als zwei Beispiele für die Kantendetektion angesehen. Obwohl beide darauf abzielen, Kanten zu finden, gehen sie das Problem unterschiedlich an.
Gradientenbasierte Methoden (wie Sobel, Prewitt und Scharr) erkennen Kanten, indem sie nach scharfen Helligkeitsänderungen suchen, die als Gradient bezeichnet werden. Sie scannen das Bild und markieren Stellen, an denen diese Änderung am stärksten ist. Diese Methoden sind einfach, schnell und funktionieren gut, wenn Bilder klar sind. Sie reagieren jedoch empfindlich auf Rauschen - winzige Helligkeitsschwankungen können fälschlicherweise als Kanten interpretiert werden.
Gauß-basierte Methoden (wie Canny oder Laplacian of Gaussian) fügen einen zusätzlichen Schritt hinzu, um dieses Problem zu behandeln: zuerst das Bild zu verwischen. Diese Glättung, die oft mit einem Gauß-Filter durchgeführt wird, reduziert kleine Variationen, die falsche Kanten erzeugen könnten. Nach der Glättung suchen diese Methoden immer noch nach scharfen Helligkeitsänderungen, aber die Ergebnisse sind sauberer und genauer für verrauschte oder qualitativ minderwertige Bilder.
Abb. 6. Gradientenbasierte vs. Gauß-basierte Kantenerkennung. Bild vom Autor.
Anwendungen der Kantenerkennung in der realen Welt
Nachdem wir besser verstanden haben, wie Kantenerkennung funktioniert, wollen wir untersuchen, wie sie in realen Situationen angewendet wird.
Verwendung von Kantenerkennung zur Identifizierung von Rissen
Die Inspektion großer Betonstrukturen wie Brücken und Hochhäuser ist oft eine anspruchsvolle und gefährliche Aufgabe. Diese Strukturen können sich über weite Entfernungen erstrecken oder große Höhen erreichen, was traditionelle Inspektionen langsam, teuer und riskant macht. Diese Inspektionen erfordern in der Regel auch Gerüste, Seilzugang, manuelle Nahbereichsmessungen oder Fotografie.
Ein interessanter Ansatz wurde 2019 untersucht, als Forscher eine sicherere und schnellere Methode testeten, bei der Drohnen mit hochauflösenden Kameras eingesetzt wurden, um detaillierte Eingangsbilder von Betonoberflächen aufzunehmen. Diese Bilder wurden dann mit verschiedenen Kantenerkennungsverfahren verarbeitet, um Risse automatisch zu identifizieren.
Die Studie zeigte, dass diese Methode den Bedarf an direktem menschlichen Zugang zu Gefahrenbereichen deutlich reduzierte und Inspektionen beschleunigte. Ihre Genauigkeit hing jedoch weiterhin von Faktoren wie Lichtverhältnissen, Bildschärfe und stabilem Drohnenbetrieb ab. In einigen Fällen war eine menschliche Überprüfung weiterhin erforderlich, um Falschmeldungen zu beseitigen.
Anwendung der Kantenerkennung in der medizinischen Bildgebung
Röntgenaufnahmen und MRTs enthalten oft visuelle Störungen, die als Rauschen bekannt sind und die feine Details schwerer erkennbar machen können. Dies stellt Ärzte vor eine Herausforderung, wenn sie versuchen, die Ränder eines Tumors zu erkennen, die Konturen eines Organs nachzuzeichnen oder subtile Veränderungen im Laufe der Zeit zu beobachten.
Eine aktuelle Studie zur medizinischen Bildgebung untersuchte, wie gut gängige Kantenerkennungsmethoden wie Sobel, Canny, Prewitt und Laplacian mit verrauschten Bildern umgehen können. Die Forscher fügten den Bildern verschiedene Arten und Grade von Rauschen hinzu und überprüften, wie genau jede Methode wichtige Merkmale umreißen konnte.
Canny lieferte in der Regel die saubersten Kanten, selbst bei starkem Rauschen, war aber nicht in jedem Fall die beste Lösung. Einige Methoden funktionierten bei bestimmten Rauschmustern besser, daher gibt es keine perfekte Lösung.
Abb. 7. Canny (d–f) liefert klarere Kanten als Sobel (g–i), wenn das Rauschen zunimmt. (Quelle)
Dies unterstreicht, warum Technologien wie Computer Vision so wichtig sind. Durch die Kombination fortschrittlicher Algorithmen und Vision AI-Modelle können solche Lösungen über die einfache Kantenerkennung hinausgehen und auch unter schwierigen Bedingungen genauere und zuverlässigere Ergebnisse liefern.
Vorteile der Kantenerkennung
Hier sind einige der Vorteile der Verwendung von Kantenerkennung und Bildverarbeitung:
Bessere Datenkompression: Kantenerkennung ermöglicht die Darstellung von Bildern unter Verwendung von nur Schlüsselfunktionen, wodurch die Dateigröße reduziert wird, während wesentliche Informationen erhalten bleiben. Dies macht die Speicherung und Übertragung effizienter.
Genauere Objektdetektion: Durch die genaue Identifizierung von Objektgrenzen verbessert die Kantenerkennung, wie gut Systeme Objekte lokalisieren und verfolgen können, was Anwendungen wie Vision KI in der Robotik und autonomen Fahrzeugen zugute kommt.
Multi-Skalen-Merkmalserkennung: Kantenerkennungstechniken können Bilder in verschiedenen Maßstäben analysieren und sowohl kleine Details als auch größere Formen erfassen. Diese Flexibilität ist bei verschiedenen Aufgaben nützlich, von der Texturanalyse bis zum Szenenverständnis.
Einschränkungen bei der Verwendung von Bildverarbeitung zur Kantenerkennung
Obwohl die Kantendetektion in der Bildverarbeitung viele Vorteile bietet, ist sie auch mit einigen Herausforderungen verbunden. Hier sind einige der wichtigsten Einschränkungen, die es zu berücksichtigen gilt:
Probleme mit komplexen Texturen: In Bildern mit komplizierten oder sich wiederholenden Mustern erzeugt die Kantenerkennung oft viele falsche oder irrelevante Kanten, was die weitere Analyse erschwert und die Zuverlässigkeit verringert.
Empfindlich gegenüber Beleuchtung: Helligkeitsschwankungen, Schatten und Reflexionen können dazu führen, dass Kantendetektoren Änderungen der Beleuchtung falsch als Objektgrenzen interpretieren, was zu inkonsistenten Ergebnissen führt.
Keine Objekterkennung: Während Kanten hervorheben, wo Objekte beginnen und enden, zeigen sie nicht, was die Objekte sind. Zusätzliche Verarbeitung ist erforderlich, um den erkannten Kanten eine Bedeutung oder Beschriftung zuzuweisen.
Wenn Computer Vision zur Kantenerkennung eingesetzt werden kann.
Die Kantenerkennung ist davon inspiriert, wie unsere Augen und unser Gehirn zusammenarbeiten, um die Welt zu verstehen. In Bezug auf das menschliche Sehen reagieren spezialisierte Neuronen im visuellen Kortex sehr empfindlich auf Kanten, Linien und Grenzen.
Diese visuellen Hinweise helfen uns, schnell zu erkennen, wo ein Objekt endet und ein anderes beginnt. Deshalb ist selbst eine einfache Strichzeichnung sofort erkennbar - unser Gehirn verlässt sich stark auf Kanten, um Formen und Objekte zu identifizieren.
Computer Vision zielt darauf ab, diese Fähigkeit nachzuahmen, geht aber noch einen Schritt weiter. Modelle wie Ultralytics YOLO11 gehen über die einfache Hervorhebung von Kanten und die Verbesserung von Bildern hinaus. Sie können Objekte erkennen, sie präzise umreißen und Bewegungen in Echtzeit verfolgen. Dieses tiefere Verständnis macht sie in Szenarien unerlässlich, in denen die reine Kantenerkennung nicht ausreicht.
Verwendung von Ultralytics YOLO11 zur genaueren Erkennung von Kanten
Hier sind einige wichtige Computer-Vision-Aufgaben, die von YOLO11 unterstützt werden und auf der Kantenerkennung aufbauen und darüber hinausgehen:
Objekterkennung: Sie identifiziert und lokalisiert mehrere Objekte in einem Bild oder Video, indem sie um jedes Objekt Bounding Boxes zeichnet und so eine klare Sicht darauf gibt, was vorhanden ist und wo sich jedes Objekt befindet.
Instanzsegmentierung: Dies beinhaltet das Aufbrechen von Objekten bis auf die Pixelebene, wodurch saubere und präzise Umrisse entstehen, selbst wenn sich Objekte überlappen oder unregelmäßige Formen haben.
Pose-Schätzung: Ziel ist es hier, die Position, Orientierung oder Haltung eines Objekts oder einer Person zu bestimmen, was bei der Überwachung von Bewegungen oder der Erkennung von strukturellen Veränderungen im Laufe der Zeit hilft.
Objektverfolgung: Diese Aufgabe verfolgt ein Objekt, während es sich durch Videoframes bewegt, und gewährleistet eine konsistente Identifizierung für eine genaue Langzeitbeobachtung.
Bildklassifizierung: Sie weist Objekten oder ganzen Bildern basierend auf ihren visuellen Merkmalen Bezeichnungen zu, wodurch es einfacher wird, große Datensätze zu organisieren und zu interpretieren.
Erkennung von Kanten in der Infrastruktur mit Computer Vision
Ein gutes Beispiel dafür, wie Computer Vision eine Anwendung verbessert, die traditionell auf Kantenerkennung angewiesen war, ist die Risserkennung in Infrastruktur- und Industrieanlagen. Computer-Vision-Modelle wie YOLOv8 können trainiert werden, um Risse auf Straßen, Brücken und Pipelines genau zu identifizieren. Die gleiche Technik kann auch in der Flugzeugwartung, bei Gebäudeinspektionen und in der Fertigungsqualitätskontrolle eingesetzt werden, um Inspektionen zu beschleunigen und die Sicherheit zu verbessern.
Abb. 8. Ein Beispiel für die Verwendung von YOLO11 zur Risssegmentierung. (Quelle)
Wesentliche Erkenntnisse
Die Kantenerkennung hat einen langen Weg zurückgelegt, von einfachen frühen Methoden bis hin zu fortschrittlichen Techniken, die selbst subtile Grenzen in komplexen Bildern erkennen können. Sie hilft, wichtige Details hervorzuheben, Schlüsselbereiche zu markieren und Bilder für eine tiefere Analyse vorzubereiten, was sie zu einem Kernbestandteil der Bildverarbeitung macht.
In der Computer Vision spielt die Kantenerkennung eine wichtige Rolle bei der Definition von Formen, der Trennung von Objekten und der Extraktion nützlicher Informationen. Sie wird in vielen Bereichen wie der medizinischen Bildgebung, industriellen Inspektionen, dem autonomen Fahren und der Sicherheit eingesetzt, um eine genaue und zuverlässige visuelle Erfassung zu ermöglichen.