Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Cookie-Einstellungen
Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Erfahren Sie, wie das neue YOLO11-Modell von Ultralytics für die Segmentierung von Beispielen verwendet werden kann, um eine höhere Präzision bei Anwendungen wie Abfallmanagement und Fackelüberwachung zu erreichen.
Computer Vision, ein Bereich der künstlichen Intelligenz (AI), der Maschinen hilft, visuelle Informationen zu interpretieren und zu verstehen, ermöglicht Aufgaben wie Instanzsegmentierung. Die Instanzsegmentierung kann zur Analyse eines Bildes oder Videobildes verwendet werden, um die genauen Grenzen jedes einzelnen Objekts im Bild zu markieren, selbst wenn mehrere Objekte desselben Typs vorhanden sind. Dank ihrer hohen Präzision bietet die Instanzensegmentierung ein breites Anwendungsspektrum, das von der Unterstützung selbstfahrender Autos bei der Erkennung von Hindernissen auf der Straße bis zur Identifizierung von Tumoren in medizinischen Scans reicht.
Abb. 1. Ein Beispiel für die Verwendung des Ultralytics YOLO11-Modells für die Segmentierung von Instanzen.
In diesem Artikel werden wir die Instanzsegmentierung und ihre Unterschiede zu anderen Computer-Vision-Aufgaben wie der semantischen Segmentierung untersuchen und einige ihrer Anwendungen diskutieren. Wir gehen auch durch, wie Sie das YOLO11-Instanzsegmentierungsmodell mit dem Ultralytics Python-Paket und der Ultralytics HUB-Plattform verwenden können. Fangen wir an!
Was bedeutet Instanzensegmentierung?
Die Instanzsegmentierung kann dazu verwendet werden, Objekte in einem Bild zu identifizieren und sie auf Pixelebene zu umreißen. Dabei werden in der Regel zunächst Objekte erkannt und Bounding Boxes um sie herum gezeichnet. Anschließend klassifiziert ein Segmentierungsalgorithmus jedes Pixel innerhalb des Begrenzungsrahmens, um eine präzise Maske für jedes Objekt zu erstellen.
Die Instanzsegmentierung unterscheidet sich auch von Aufgaben wie der semantischen Segmentierung und der panoptischen Segmentierung. Bei der semantischen Segmentierung wird jedes Pixel auf der Grundlage der allgemeinen Kategorie eines Objekts gekennzeichnet, ohne zwischen einzelnen Instanzen zu unterscheiden. Bei der panoptischen Segmentierung hingegen werden sowohl die Instanz- als auch die semantische Segmentierung kombiniert, indem jedes Pixel sowohl mit einer Klassen- als auch mit einer Instanz-ID gekennzeichnet wird, wobei einzelne Objekte innerhalb jeder Kategorie identifiziert werden.
Abb. 2. Verwendung von YOLO11 zur Erkennung und Segmentierung einer Person und eines Hundes.
Die Möglichkeiten der Instanzsegmentierung können in verschiedenen Szenarien eingesetzt werden, die unterschiedliche Modelle erfordern. So könnte ein leichtgewichtiges Modell ideal für die Echtzeitverarbeitung in mobilen Anwendungen sein, während ein komplexeres Modell für hochpräzise Aufgaben wie die Qualitätskontrolle in der Fertigung verwendet werden könnte.
Wie bei den Vorgängermodellen gibt es auch beim YOLO11 Instanzensegmentierungsmodell mehrere Varianten, die auf Ihre Bedürfnisse abgestimmt sind. Zu diesen Varianten gehören YOLO11n-seg (Nano), YOLO11s-seg (Small), YOLO11m-seg (Medium), YOLO11l-seg (Large) und YOLO11x-seg (Extra Large). Diese Modelle unterscheiden sich hinsichtlich ihrer Größe, Verarbeitungsgeschwindigkeit, Genauigkeit und der benötigten Rechenleistung. Je nach Ihren spezifischen Anforderungen können Sie das Modell wählen, das am besten zu Ihrer Anwendung passt.
Instanzsegmentierungsanwendungen für YOLO11
Die fortschrittlichen Instanzsegmentierungsfunktionen von YOLO11 eröffnen eine Reihe von Anwendungen in verschiedenen Branchen. Werfen wir einen genaueren Blick auf einige dieser Anwendungen.
Verwendung der YOLO11-Segmentierung in der Öl- und Gasindustrie
Bei der Öl- und Gasförderung müssen extrem hohe Druckschwankungen bewältigt werden. Techniken wie das Abfackeln von Gas helfen dabei, das bei der Ölförderung entstehende Erdgas abzubrennen. Dies ist aus Sicherheitsgründen notwendig. Bei der Erdölförderung beispielsweise könnte ein plötzlicher oder starker Druckanstieg zu einer Explosion führen. Industrieunfälle in der Öl- und Gasindustrie sind zwar selten, können aber zu schweren Bränden führen, die sich nur schwer eindämmen und kontrollieren lassen. Das Abfackeln von Gas hilft den Betreibern, den Druck in den Anlagen sicher abzubauen und unvorhersehbare, starke Druckschwankungen zu bewältigen, indem das überschüssige Gas abgebrannt wird.
KI-Systeme können diesen Überwachungsprozess verbessern, und das Unfallrisiko kann durch den Einsatz eines auf Instanzsegmentierung basierenden Fackelüberwachungssystems verringert werden. Die Überwachung des Abfackelns von Gas ist auch aus Gründen des Umweltschutzes wichtig, da ein zu starkes Abfackeln negative Auswirkungen auf die Umwelt haben kann.
Ultralytics YOLO11-Instanzsegmentierungsmodelle können zur Überwachung der durch das Abfackeln verursachten Feuer- und Rauchmenge verwendet werden. Die Pixelfläche der erkannten und segmentierten Fackel und des Rauchs kann berechnet werden. Anhand dieser Informationen können die Betreiber in Echtzeit Einblicke in die durch das Abfackeln verursachten Fackeln und den Rauch gewinnen, was ihnen hilft, Unfälle und negative Umweltauswirkungen zu vermeiden.
Abbildung 3. Ein Beispiel für die Fackelüberwachung mit YOLO11 in der Öl- und Gasindustrie.
Instanzsegmentierung mit YOLO11 für die Kunststoffabfallwirtschaft
Mitarbeiter von Abfallentsorgungs- und Recyclinganlagen können mit YOLO11 segmentierungsbasierte Systeme einsetzen, um Kunststoffabfälle zu identifizieren. YOLO11 kann in Robotersortiersysteme integriert werden, um verschiedene Abfallmaterialien wie Pappe und Kunststoff (die getrennt verarbeitet werden müssen) genau zu identifizieren. Dies ist besonders wichtig, wenn man bedenkt, dass von den 7 Milliarden Tonnen Kunststoffabfall, die weltweit anfallen, nur etwa 10 % recycelt werden.
Durch die Automatisierung der Identifizierung und Sortierung von Kunststoffabfällen wird der Zeitaufwand im Vergleich zu herkömmlichen Methoden, bei denen die Mitarbeiter die Gegenstände von Hand sortieren, erheblich verringert. Computer-Vision-Modelle können sogar weiche Kunststoffe wie Verpackungen und Tüten segmentieren, die eine besondere Herausforderung darstellen, weil sie sich oft verheddern. Die YOLO11-Modelle können auch kundenspezifisch trainiert werden, um verschiedene Arten von Kunststoffen zu segmentieren. In den folgenden Abschnitten erfahren Sie mehr darüber, wie Sie ein YOLO11-Modell individuell trainieren können.
Abb. 4. Identifizierung von Kunststoffabfällen mit Ultralytics YOLO11.
YOLO11 Segmentierung in autonomen Fahrzeugen
Ein weiterer interessanter Anwendungsfall für die Instanzsegmentierung sind autonome Fahrzeuge. Mit YOLO11 können selbstfahrende Autos die Sicherheit der Insassen und anderer Verkehrsteilnehmer verbessern, indem sie Objekte auf Pixelebene genau erkennen. Das Kamerasystem des Fahrzeugs kann Bilder von der Umgebung aufnehmen und diese mit YOLO11 und Instanzsegmentierung analysieren. Jedes Objekt (Fußgänger, Ampeln, andere Fahrzeuge usw.) im Bild wird segmentiert und mit einem Label versehen. Dank dieser Präzision sind autonome Fahrzeuge in der Lage, jedes einzelne Objekt in ihrer Umgebung zu identifizieren.
Abb. 5. Verwendung von YOLO11 und Instanzsegmentierung zur Identifizierung von Fahrzeugen und Fußgängern auf der Straße.
Ausprobieren der Instanzsegmentierung mit dem YOLO11-Modell
Nachdem wir nun die Instanzsegmentierung erforscht und einige ihrer Anwendungen besprochen haben, wollen wir sehen, wie Sie sie anhand des Ultralytics YOLO11-Modells ausprobieren können.
Es gibt zwei Möglichkeiten, dies zu tun: Sie können entweder das Ultralytics Python-Paket oder den Ultralytics HUB verwenden. Wir werden beide Möglichkeiten untersuchen und mit dem Python-Paket beginnen.
Inferenzen mit YOLO11 durchführen
Beim Ausführen einer Schlussfolgerung wird das Modell verwendet, um neue, zuvor ungesehene Daten zu analysieren. Um eine Inferenz mit dem YOLO11-Instanzsegmentierungsmodell durch Code auszuführen, müssen wir das Ultralytics Python-Paket mit pip, conda oder docker installieren. Sollten bei der Installation Probleme auftreten, können Sie in unserem Leitfaden für häufige Probleme nachlesen, um Hilfe bei der Fehlerbehebung zu erhalten. Sobald das Paket installiert ist, können Sie den unten gezeigten Code ausführen, um das YOLO11-Instanzsegmentierungsmodell zu laden und Vorhersagen auf einem Bild auszuführen.
Abb. 6. Durchführung einer Inferenz auf ein Bild mit YOLO11n-seg.
Training eines benutzerdefinierten YOLO11-Modells
Mit demselben Code-Setup können Sie auch ein benutzerdefiniertes YOLO11-Modell trainieren. Durch die Feinabstimmung eines YOLO11-Modells können Sie eine benutzerdefinierte Version des Modells erstellen, die Ihre spezifischen Projektanforderungen besser erfüllt. Zum Beispiel können Einzelhändler ein benutzerdefiniertes Modell verwenden, um die körperlichen Merkmale eines Kunden genau zu segmentieren, um Kleidung zu empfehlen, die richtig passt. Das folgende Code-Snippet zeigt, wie Sie ein YOLO11-Modell für die Instanzsegmentierung laden und trainieren. Sie können von einer YAML-Konfiguration oder einem vortrainierten Modell ausgehen, Gewichte übertragen und auf einem Datensatz wie COCO trainieren, um eine effektive Segmentierung zu erreichen.
Nach der Fertigstellung können Sie mithilfe des benutzerdefinierten Modells Schlussfolgerungen für Ihre spezifischen Anwendungen ziehen. Mit der Exportoption können Sie Ihr benutzerdefiniertes Modell auch in ein anderes Format exportieren.
YOLO11-Instanzsegmentierung auf Ultralytics HUB
Nachdem wir uns nun mit der Durchführung von Schlussfolgerungen und dem benutzerdefinierten Training eines YOLO11-Instanzsegmentierungsmodells durch Code beschäftigt haben, wollen wir uns nun eine Alternative ohne Code ansehen: Ultralytics HUB. Ultralytics HUB ist eine intuitive Vision AI-Plattform, die den Prozess des Trainings und der Bereitstellung von YOLO-Modellen, einschließlich der YOLO11-Instanzsegmentierungsmodelle, vereinfacht.
Um Bilder zu analysieren, müssen Sie lediglich ein Konto erstellen, zum Abschnitt "Modelle" gehen und die YOLO11-Instanzsegmentierungsmodellvariante Ihrer Wahl auswählen. Sie können ein Bild hochladen und die Vorhersageergebnisse im Vorschaubereich ansehen, wie unten gezeigt.
Abb. 7. Durchführung von Schlussfolgerungen auf Ultralytics HUB.
Die wichtigsten Erkenntnisse
YOLO11 bietet zuverlässige Instanzsegmentierungsfunktionen, die eine Welt der Möglichkeiten in verschiedenen Branchen eröffnen. Von der Verbesserung der Sicherheit in autonomen Fahrzeugen über die Überwachung des Abfackelns von Gas im Öl- und Gassektor bis hin zur Automatisierung der Müllsortierung in Recyclinganlagen - die Präzision auf Pixelebene macht YOLO11 ideal für komplexe Segmentierungsaufgaben.
Mit den Optionen für benutzerdefinierte Schulungen über das Ultralytics Python-Paket und einer codefreien Einrichtung über Ultralytics HUB können Benutzer YOLO11 nahtlos in ihre Arbeitsabläufe integrieren. Ob für industrielle Anwendungen, das Gesundheitswesen, den Einzelhandel oder die Umweltüberwachung, YOLO11 bietet Flexibilität und Genauigkeit, um verschiedene Segmentierungsanforderungen zu erfüllen.