Kantenerkennung in der Bildverarbeitung. Lernen Sie Sobel-, Canny- und andere Kantenerkennungsalgorithmen kennen, um Kanten genau zu erkennen und eine robuste Kantenerkennung zu erreichen.

Kantenerkennung in der Bildverarbeitung. Lernen Sie Sobel-, Canny- und andere Kantenerkennungsalgorithmen kennen, um Kanten genau zu erkennen und eine robuste Kantenerkennung zu erreichen.
Als Menschen erkennen wir beim Betrachten eines Bildes ganz natürlich die Kanten von Objekten, folgen ihren Kurven und bemerken die Texturen auf ihren Oberflächen. Für einen Computer beginnt das Verständnis jedoch auf der Ebene der einzelnen Pixel.
Ein Pixel, die kleinste Einheit eines digitalen Bildes, speichert Farbe und Helligkeit an einem einzigen Punkt. Durch die Verfolgung von Änderungen dieser Pixelwerte über ein Bild hinweg kann ein Computer Muster erkennen, die wichtige Details offenbaren.
Bei der Bildverarbeitung werden insbesondere Pixeldaten verwendet, um wesentliche Merkmale hervorzuheben und Ablenkungen zu entfernen. Eine gängige Bildverarbeitungstechnik ist die Kantenerkennung, bei der Punkte identifiziert werden, an denen sich Helligkeit oder Farbe stark verändern, um Objekte zu umreißen, Grenzen zu markieren und Strukturen hinzuzufügen.
Dies ermöglicht es Computern, Formen zu trennen, Dimensionen zu messen und zu interpretieren, wie Teile einer Szene zusammenhängen. Die Kantenerkennung ist oft der erste Schritt in der fortgeschrittenen Bildanalyse.
In diesem Artikel werden wir einen Blick darauf werfen, was Kantenerkennung ist, wie sie funktioniert und wie sie in der Praxis angewendet wird. Legen wir los!
Die Kantenerkennung konzentriert sich auf die Suche nach Stellen in einem Bild, an denen sich die Helligkeit oder Farbe von einem Punkt zum nächsten merklich ändert. Wenn die Änderung gering ist, erscheint der Bereich glatt. Ist die Änderung stark, markiert sie oft die Grenze zwischen zwei verschiedenen Regionen.
Hier sind einige der Gründe, warum diese Pixeländerungen auftreten:
Bei der Kantenerkennung wird in der Regel zunächst ein Farbbild in ein Graustufenbild umgewandelt, so dass jeder Punkt nur die Helligkeit zeigt. Dies erleichtert es dem Algorithmus, sich auf helle und dunkle Unterschiede statt auf die Farbe zu konzentrieren.
Anschließend können spezielle Filter das Bild scannen, um Stellen zu finden, an denen sich die Helligkeit plötzlich ändert. Diese Filter berechnen, wie stark sich die Helligkeit ändert, was als Gradient bezeichnet wird. Ein höherer Gradient wird durch einen größeren Unterschied zwischen nahegelegenen Punkten verursacht, was oft auf eine Kante hinweist.
Der Algorithmus verfeinert dann das Bild weiter, entfernt kleine Details und behält nur die wichtigsten Linien und Formen bei. Das Ergebnis ist ein klarer Umriss und ein Ausgabebild, das für die weitere Analyse verwendet werden kann.
Bevor wir uns eingehender mit der Kantenerkennung befassen, wollen wir erörtern, wie sie sich im Laufe der Zeit entwickelt hat.
Die Bildverarbeitung begann mit einfachen, regelbasierten Methoden wie Schwellenwertbildung und Filterung, um Bilder zu bereinigen und zu verbessern. In der analogen Ära bedeutete dies, Fotos oder Filme mit optischen Filtern, Lupen oder chemischen Behandlungen zu bearbeiten, um Details hervorzuheben.
Techniken wie Kontrastanpassung, Rauschunterdrückung, Anpassung der Bildintensität und grundlegende Kantenerkennung trugen dazu bei, die eingegebenen Bilder klarer zu machen und Formen und Texturen hervorzuheben. In den 1960er und 70er Jahren ebnete der Übergang von der analogen zur digitalen Verarbeitung den Weg für moderne Analysen in Bereichen wie Astronomie, medizinische Bildgebung und Satellitenüberwachung.
In den 1980er und 90er Jahren ermöglichten schnellere Computer die Bewältigung komplexerer Aufgaben wie Merkmalsextraktion, Formerkennung und grundlegende Objekterkennung. Algorithmen wie der Sobel-Operator und Canny boten eine präzisere Kantenerkennung, während die Mustererkennung Anwendungen in allen Bereichen fand, von der industriellen Automatisierung bis zum Lesen von gedrucktem Text durch optische Zeichenerkennung.
Heutzutage hat der stetige technologische Fortschritt zur Entwicklung der Computer Vision geführt. Vision AI, oder Computer Vision, ist ein Zweig der KI, der sich darauf konzentriert, Maschinen zu lehren, visuelle Informationen zu interpretieren und zu verstehen.
Während die herkömmliche Bildverarbeitung, wie die doppelte Schwellenwertbildung (die Bilder klarer macht, indem sie starke Kanten beibehält und schwache entfernt) und die Kantenerkennung, festen Regeln folgten und nur bestimmte Aufgaben bewältigen konnten, verwendet die Computer Vision datengesteuerte Modelle, die aus Beispielen lernen und sich an neue Situationen anpassen können.
Heutzutage gehen bildgebende Systeme weit über die bloße Verbesserung von Bildern oder die Erkennung von Kanten hinaus. Sie können Objekte erkennen, Bewegungen verfolgen und den Kontext einer ganzen Szene verstehen.
Eine der Schlüsseltechniken, die dies möglich macht, ist die Faltung. Eine Faltung ist ein Prozess, bei dem kleine Filter (auch Kernel genannt) ein Bild abtasten, um wichtige Muster wie Kanten, Ecken und Texturen zu finden. Diese Muster werden zu den Bausteinen, die Computer-Vision-Modelle verwenden, um Objekte zu erkennen und zu verstehen.
Computer-Vision-Modelle wie Ultralytics YOLO11 beispielsweise verwenden diese auf Faltung basierenden Merkmale, um fortgeschrittene Aufgaben wie die Segmentierung von Objekten durchzuführen. Dies steht in engem Zusammenhang mit der Kantendetektion, da für die Segmentierung von Objekten die Grenzen jedes Objekts in einem Bild genau umrissen werden müssen.
Während sich die Kantenerkennung darauf konzentriert, Intensitätsänderungen in Kantenpixeln zu finden, um Objektkanten zu markieren, baut die Instanzsegmentierung auf dieser Idee auf, um Kanten zu erkennen, zu klassifizieren und jedes Objekt in seine eigene Region zu trennen.
Trotz der zunehmenden Verbreitung der Computer Vision ist die Bildverarbeitung immer noch ein wichtiger Bestandteil vieler Anwendungen. Das liegt daran, dass die Computer Vision oft auf grundlegenden Bildvorverarbeitungsschritten aufbaut.
Vor der Erkennung von Objekten oder dem Verstehen einer Szene bereinigen die Systeme in der Regel das Bild, reduzieren das Rauschen und finden Kanten, um wichtige Details hervorzuheben. Diese Schritte machen fortgeschrittene Modelle genauer und effizienter.
Als Nächstes wollen wir uns einige der gebräuchlichsten Bildverarbeitungsalgorithmen ansehen, die zur Erkennung von Kanten verwendet werden, und wie sie funktionieren.
Die Sobel-Kantenerkennung ist eine wichtige Methode, um die Umrisse von Objekten in einem Bild zu erkennen. Anstatt jedes Detail auf einmal zu analysieren, konzentriert sie sich auf Bereiche, in denen sich die Helligkeit von einem Pixel zum nächsten benachbarten Pixel stark ändert.
Diese plötzlichen Verschiebungen markieren in der Regel den Punkt, an dem ein Objekt endet und ein anderes beginnt, oder wo ein Objekt auf den Hintergrund trifft. Durch die Isolierung dieser Kanten verwandelt Sobel ein komplexes Bild in einen klareren Umriss, der von anderen Systemen für Aufgaben wie die Verfolgung von Bewegungen, die Erkennung von Formen oder die Erkennung von Objekten leichter zu verarbeiten ist.
Man kann sich die Sobel-Kantenerkennung als einen Gradientendetektor vorstellen, der misst, wie sich die Intensität in einem Bild verändert. Im Kern funktioniert dies durch eine Faltungsoperation: Man schiebt kleine Matrizen, sogenannte Kernel, über das Bild und berechnet gewichtete Summen benachbarter Pixelwerte.
Diese Kernel sind so konzipiert, dass sie Helligkeitsänderungen in horizontaler und vertikaler Richtung hervorheben. Im Gegensatz zu Deep-Learning-Modellen, bei denen Kernel aus Daten gelernt werden, verwendet Sobel feste Kernel, um Kanten effizient hervorzuheben, ohne dass ein Training erforderlich ist.
Im Folgenden wird die Funktionsweise der Sobel-Kantenerkennung näher beleuchtet:
Die Canny-Kantenerkennung ist eine weitere beliebte Methode zum Auffinden von Kanten in einem Bild. Sie ist dafür bekannt, dass sie saubere und präzise Umrisse erzeugt. Im Gegensatz zu grundlegenden Kantenerkennungsmethoden folgt sie einer Reihe von sorgfältig konzipierten Schritten, um Rauschen herauszufiltern, Grenzen zu schärfen und sich auf die wichtigsten Kanten zu konzentrieren.
Hier ein kurzer Überblick über die Funktionsweise eines Canny-Kantendetektors:
Da sie genaue Ergebnisse liefert und gleichzeitig Rauschen herausfiltert, ist die Canny-Kantenerkennung in Bereichen, in denen es auf Präzision ankommt, weit verbreitet. So wird sie beispielsweise in Branchen wie der medizinischen Bildgebung, der Satellitenkartierung, dem Scannen von Dokumenten und der Bildverarbeitung durch Roboter eingesetzt.
Bisher haben wir uns zwei Beispiele für die Kantenerkennung angesehen: Sobel und Canny. Beide zielen zwar darauf ab, Kanten zu finden, gehen aber unterschiedlich an das Problem heran.
Gradientenbasierte Methoden (wie Sobel, Prewitt und Scharr) erkennen Kanten, indem sie nach starken Helligkeitsveränderungen, dem sogenannten Gradienten, suchen. Sie scannen das Bild und markieren die Stellen, an denen diese Veränderung am stärksten ist. Diese Methoden sind einfach, schnell und funktionieren gut, wenn die Bilder klar sind. Sie sind jedoch empfindlich gegenüber Rauschen - winzige Helligkeitsschwankungen können fälschlicherweise für Kanten gehalten werden.
Gauß-basierte Methoden (wie Canny oder Laplacian von Gauß) fügen einen zusätzlichen Schritt hinzu, um dieses Problem zu lösen: das Bild wird zunächst geglättet. Diese Glättung, die häufig mit einem Gauß-Filter erfolgt, reduziert kleine Abweichungen, die zu falschen Kanten führen könnten. Nach der Glättung suchen diese Methoden immer noch nach scharfen Helligkeitsänderungen, aber die Ergebnisse sind sauberer und genauer für verrauschte oder qualitativ schlechte Bilder.
Nachdem wir nun besser verstanden haben, wie die Kantenerkennung funktioniert, wollen wir nun untersuchen, wie sie in der Praxis angewendet wird.
Die Inspektion großer Betonkonstruktionen, wie Brücken und Hochhäuser, ist oft eine schwierige und gefährliche Aufgabe. Diese Bauwerke können sich über große Entfernungen erstrecken oder große Höhen erreichen, was herkömmliche Inspektionen langsam, teuer und riskant macht. Diese Inspektionen erfordern in der Regel auch Gerüste, Seilzugang, manuelle Nahmessungen oder Fotografien.
Ein interessanter Ansatz wurde 2019 erforscht, als Forscher eine sicherere und schnellere Methode erprobten, bei der Drohnen mit hochauflösenden Kameras eingesetzt werden, um detaillierte Eingangsbilder von Betonoberflächen aufzunehmen. Diese Bilder wurden dann mit verschiedenen Techniken zur Kantenerkennung verarbeitet, um Risse automatisch zu erkennen.
Die Studie zeigte, dass diese Methode den Bedarf an direktem menschlichen Zugang zu gefährlichen Bereichen erheblich reduziert und die Inspektionen beschleunigt. Die Genauigkeit der Methode hing jedoch immer noch von Faktoren wie Lichtverhältnissen, Bildschärfe und stabilem Drohnenbetrieb ab. In einigen Fällen war immer noch eine menschliche Überprüfung erforderlich, um falsch positive Ergebnisse auszuschließen.
Röntgen- und MRT-Aufnahmen enthalten oft visuelle Störungen, die als Rauschen bezeichnet werden und das Erkennen feiner Details erschweren können. Dies ist für Ärzte eine Herausforderung, wenn sie versuchen, die Ränder eines Tumors zu erkennen, die Umrisse eines Organs nachzuzeichnen oder subtile Veränderungen im Laufe der Zeit zu beobachten.
In einer kürzlich durchgeführten Studie zur medizinischen Bildgebung wurde getestet, wie gut gängige Kantenerkennungsmethoden wie Sobel, Canny, Prewitt und Laplacian mit verrauschten Bildern umgehen. Die Forscher fügten den Bildern verschiedene Arten und Stufen von Rauschen hinzu und prüften, wie genau jede Methode wichtige Merkmale herausarbeiten konnte.
Canny erzeugte in der Regel die saubersten Ränder, selbst bei starkem Rauschen, aber es war nicht in jedem Fall die beste Lösung. Einige Methoden funktionierten bei bestimmten Rauschmustern besser, es gibt also keine perfekte Lösung.
Dies macht deutlich, warum Technologien wie Computer Vision so wichtig sind. Durch die Kombination fortschrittlicher Algorithmen und KI-Modelle können solche Lösungen über die einfache Kantenerkennung hinausgehen und selbst unter schwierigen Bedingungen genauere und zuverlässigere Ergebnisse liefern.
Hier sind einige der Vorteile der Kantenerkennung und Bildverarbeitung:
Die Kantenerkennung in der Bildverarbeitung bietet zwar viele Vorteile, bringt aber auch einige Herausforderungen mit sich. Hier sind einige der wichtigsten Einschränkungen zu beachten:
Die Randerkennung ist davon inspiriert, wie unsere Augen und unser Gehirn zusammenarbeiten, um der Welt einen Sinn zu geben. Beim menschlichen Sehen sind spezialisierte Neuronen im visuellen Kortex sehr empfindlich für Kanten, Linien und Grenzen.
Diese visuellen Anhaltspunkte helfen uns, schnell zu bestimmen, wo ein Objekt endet und ein anderes beginnt. Deshalb ist selbst eine einfache Strichzeichnung sofort erkennbar - unser Gehirn verlässt sich stark auf die Kanten, um Formen und Objekte zu identifizieren.
Computervision zielt darauf ab, diese Fähigkeit zu imitieren, geht aber noch einen Schritt weiter. Modelle wie Ultralytics YOLO11 gehen über die einfache Hervorhebung von Kanten und die Bildverbesserung hinaus. Sie können Objekte erkennen, sie präzise umreißen und Bewegungen in Echtzeit verfolgen. Dieses tiefere Verständnis macht sie in Szenarien unverzichtbar, in denen die Kantenerkennung allein nicht ausreicht.
Hier sind einige der wichtigsten von YOLO11 unterstützten Computer-Vision-Aufgaben, die auf der Kantenerkennung aufbauen und darüber hinausgehen:
Ein gutes Beispiel für die Verbesserung einer Anwendung, die sich traditionell auf die Kantenerkennung stützt, ist die Risserkennung in Infrastruktur- und Industrieanlagen. Computer-Vision-Modelle wie YOLO11 können so trainiert werden, dass sie Risse auf Straßen, Brücken und Pipelines genau erkennen. Die gleiche Technik kann auch bei der Wartung von Flugzeugen, bei Gebäudeinspektionen und bei der Qualitätskontrolle in der Fertigung eingesetzt werden, um Inspektionen zu beschleunigen und die Sicherheit zu verbessern.
Die Kantenerkennung hat einen langen Weg zurückgelegt, von einfachen frühen Methoden bis hin zu fortschrittlichen Techniken, die selbst subtile Grenzen in komplexen Bildern erkennen können. Sie hilft dabei, wichtige Details hervorzuheben, Schlüsselbereiche zu markieren und Bilder für eine tiefergehende Analyse vorzubereiten, was sie zu einem zentralen Bestandteil der Bildverarbeitung macht.
In der Computer Vision spielt die Kantenerkennung eine wichtige Rolle bei der Definition von Formen, der Trennung von Objekten und der Extraktion nützlicher Informationen. Sie wird in vielen Bereichen wie der medizinischen Bildgebung, industriellen Inspektionen, dem autonomen Fahren und der Sicherheit eingesetzt, um ein genaues und zuverlässiges visuelles Verständnis zu ermöglichen.
Werden Sie Mitglied unserer Community und erkunden Sie unser GitHub-Repository, um mehr über KI zu erfahren. Wenn Sie Ihr eigenes Vision AI-Projekt starten möchten, informieren Sie sich über unsere Lizenzierungsoptionen. Erfahren Sie mehr über Anwendungen wie KI im Gesundheitswesen und Vision AI im Einzelhandel, indem Sie unsere Lösungsseiten besuchen.