Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Cookie-Einstellungen
Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Entdecken Sie das neueste Ultralytics YOLO-Modell, Ultralytics YOLO26, und seine hochmodernen Funktionen, die ein optimales Gleichgewicht zwischen Geschwindigkeit, Genauigkeit und Einsatzfähigkeit bieten.
Am 25. September kündigte Glenn Jocher, unser Gründer und CEO, auf unserer jährlichen Hybrid-Veranstaltung, der YOLO Vision 2025 (YV25 ) in London, offiziell den neuesten Durchbruch in der Ultralytics YOLO-Modellreihe an: Ultralytics YOLO26! Unser neues Computer-Vision-Modell YOLO26 kann Bilder und Videos mit einer optimierten Architektur analysieren und interpretieren, die ein Gleichgewicht zwischen Geschwindigkeit, Genauigkeit und einfacher Bereitstellung schafft.
Ultralytics YOLO26 vereinfacht zwar einige Aspekte des Modells und fügt neue Verbesserungen hinzu, bietet aber auch weiterhin die vertrauten Funktionen, die Benutzer von Ultralytics YOLO-Modellen erwarten. So ist Ultralytics YOLO26 beispielsweise einfach zu bedienen, unterstützt eine Reihe von Computer-Vision-Aufgaben und bietet flexible Integrations- und Einsatzoptionen.
Das macht den Umstieg auf Ultralytics YOLO26 natürlich problemlos, und wir können es kaum erwarten, dass die Benutzer es selbst ausprobieren, wenn es Ende Oktober öffentlich verfügbar ist.
Abb. 1. Ein Beispiel für die Verwendung von YOLO26 zur Erkennung von Objekten in einem Bild.
Einfach ausgedrückt: Ultralytics YOLO26 ist ein besseres, schnelleres und kleineres Vision AI-Modell. In diesem Artikel gehen wir auf die wichtigsten Merkmale von Ultralytics YOLO26 ein und zeigen, was es zu bieten hat. Fangen wir an!
Mit Ultralytics die Grenzen von Vision AI verschieben YOLO26
Bevor wir uns mit den Hauptmerkmalen von Ultralytics YOLO26 und den damit möglichen Anwendungen befassen, sollten wir einen Schritt zurücktreten und die Inspiration und Motivation für die Entwicklung dieses Modells erörtern.
Bei Ultralytics haben wir immer an die Kraft der Innovation geglaubt. Von Anfang an hatten wir eine doppelte Mission. Einerseits wollen wir Vision AI zugänglich machen, damit jeder sie ohne Barrieren nutzen kann. Andererseits sind wir auch bestrebt, die Technologie auf dem neuesten Stand zu halten und die Grenzen dessen, was Computer-Vision-Modelle erreichen können, zu erweitern.
Ein Schlüsselfaktor hinter dieser Mission ist, dass sich der KI-Bereich ständig weiterentwickelt. So wird beispielsweise die Edge-KI, bei der KI-Modelle direkt auf Geräten ausgeführt werden, anstatt sich auf die Cloud zu verlassen, in allen Branchen schnell eingeführt.
Von intelligenten Kameras bis hin zu autonomen Systemen wird von Geräten am Rande des Netzes nun erwartet, dass sie Informationen in Echtzeit verarbeiten. Dieser Wandel erfordert Modelle, die leichter und schneller sind, aber dennoch ein hohes Maß an Genauigkeit bieten.
Aus diesem Grund müssen unsere Ultralytics YOLO-Modelle ständig verbessert werden. Glenn Jocher: "Eine der größten Herausforderungen war es, dafür zu sorgen, dass die Benutzer das meiste aus YOLO26 herausholen können, während es immer noch Spitzenleistungen erbringt."
Ein Überblick über Ultralytics YOLO26
YOLO26 ist in fünf verschiedenen Modellvarianten erhältlich, die Ihnen die Flexibilität geben, seine Fähigkeiten in Anwendungen jeder Größenordnung zu nutzen. Alle diese Modellvarianten unterstützen mehrere Computer-Vision-Aufgaben, genau wie die früheren Ultralytics YOLO-Modelle. Das bedeutet, dass Sie sich unabhängig von der gewählten Größe darauf verlassen können, dass YOLO26 ähnlich wie Ultralytics YOLO11 eine breite Palette von Funktionen bietet.
Objekterkennung: YOLO26 kann mehrere Objekte innerhalb eines Bildes oder Videobildes identifizieren und lokalisieren.
Segmentierung von Instanzen: YOLO26 geht einen Schritt weiter als die Erkennung und kann pixelgenaue Grenzen um jedes erkannte Objekt ziehen.
Bildklassifizierung: Das Modell kann ein ganzes Bild analysieren und es einer bestimmten Kategorie oder einem Label zuordnen.
Schätzung der Körperhaltung: YOLO26 kann sowohl für Menschen als auch für andere Objekte Keypoints erkennen und Posen schätzen.
Orientierte Begrenzungsrahmen (OBB): Das Modell kann Objekte in jedem Winkel erkennen, was besonders bei Luft-, Drohnen- und Satellitenbildern nützlich ist, bei denen Objekte wie Gebäude, Fahrzeuge oder Pflanzen möglicherweise nicht mit dem Bildrahmen ausgerichtet sind.
Objektverfolgung: YOLO26 kann verwendet werden, um Objekte über Videobilder oder Echtzeit-Streams hinweg zu verfolgen.
Abb. 2. Erkennung von Objekten in einem Bild mit YOLO26.
Ein Blick auf die Architektur von YOLO26
Nachdem wir nun ein besseres Verständnis dafür haben, wozu YOLO26 in der Lage ist, wollen wir uns einige der Innovationen in seiner Architektur ansehen.
Der Aufbau des Modells wurde gestrafft, indem das Distribution Focal Loss (DFL)-Modul entfernt wurde, das zuvor die Inferenz verlangsamte und die Bounding-Box-Regression einschränkte.
Der Vorhersageprozess wurde außerdem durch eine End-to-End (E2E)-Inferenzoption vereinfacht, die es dem Modell ermöglicht, den traditionellen Schritt der Nicht-Maximum-Unterdrückung (NMS) zu überspringen. Durch diese Verbesserung wird die Komplexität reduziert und das Modell liefert schneller Ergebnisse, was den Einsatz in realen Anwendungen erleichtert.
Weitere Verbesserungen machen das Modell intelligenter und zuverlässiger. Progressive Loss Balancing (ProgLoss) hilft, das Training zu stabilisieren und die Genauigkeit zu verbessern, während Small-Target-Aware Label Assignment (STAL) dafür sorgt, dass das Modell kleine Objekte besser erkennt. Darüber hinaus verbessert ein neuer MuSGD-Optimierer die Trainingskonvergenz und steigert die Gesamtleistung.
Tatsächlich läuft die kleinste Version von YOLO26, das Nano-Modell, jetzt bis zu 43 % schneller auf Standard-CPUs, wodurch es sich besonders gut für mobile Anwendungen, Smart-Kameras und andere Edge-Geräte eignet, bei denen Geschwindigkeit und Effizienz entscheidend sind.
Hier eine kurze Zusammenfassung der Funktionen von YOLO26 und worauf sich Nutzer freuen können:
DFL-Entfernung: Wir haben das Distribution Focal Loss-Modul aus der Architektur des Modells entfernt. Unabhängig von den Objektgrößen in einem Bild kann YOLO26 maßgeschneiderte Bounding Boxes platzieren und dabei effizienter arbeiten.
End-to-End NMS-freie Inferenz: YOLO26 fügt einen optionalen Modus hinzu, der keine Non-Maximum Suppression (NMS) benötigt, einen Schritt, der normalerweise zum Entfernen doppelter Vorhersagen verwendet wird, was die Bereitstellung einfacher und schneller für den Echtzeiteinsatz macht.
ProgLoss und STAL: Diese Verbesserungen machen das Training stabiler und erhöhen die Genauigkeit erheblich, insbesondere bei der Erkennung kleiner Objekte in komplexen Szenen.
MuSGD-Optimierer: YOLO26 verwendet einen neuen Optimierer, der die Stärken von zwei Trainingsoptimierern (Muon und SGD) kombiniert, wodurch das Modell schneller lernt und eine höhere Genauigkeit erreicht.
Abb. 3. Benchmarking YOLO26.
Vereinfachte Bereitstellung mit Ultralytics YOLO26
Ganz gleich, ob Sie an mobilen Apps, intelligenten Kameras oder Unternehmenssystemen arbeiten, der Einsatz von YOLO26 ist einfach und flexibel. Das Ultralytics Python-Paket unterstützt eine ständig wachsende Anzahl von Exportformaten, was die Integration von YOLO26 in bestehende Arbeitsabläufe erleichtert und es mit nahezu jeder Plattform kompatibel macht.
Einige der Exportoptionen sind TensorRT für maximale GPU-Beschleunigung, ONNX für breite Kompatibilität, CoreML für native iOS-Apps, TFLite für Android- und Edge-Geräte und OpenVINO für optimierte Leistung auf Intel-Hardware. Diese Flexibilität macht es einfach, YOLO26 ohne zusätzliche Hürden von der Entwicklung zur Produktion zu bringen.
Ein weiterer wichtiger Bestandteil der Bereitstellung ist die Sicherstellung, dass die Modelle auf Geräten mit begrenzten Ressourcen effizient laufen. Hier kommt die Quantisierung ins Spiel. Dank seiner vereinfachten Architektur bewältigt YOLO26 dies außergewöhnlich gut. Es unterstützt den INT8-Einsatz (mit 8-Bit-Komprimierung zur Verringerung der Größe und Verbesserung der Geschwindigkeit bei minimalem Genauigkeitsverlust) sowie Halbpräzision (FP16) für schnellere Inferenz auf unterstützter Hardware.
Das Wichtigste ist, dass YOLO26 über diese Quantisierungsstufen hinweg eine konsistente Leistung liefert, so dass Sie sich darauf verlassen können, ob es auf einem leistungsstarken Server oder einem kompakten Edge-Gerät läuft.
Von der Robotik zur Fertigung: Anwendungsfälle von YOLO26
YOLO26 kann in einer Vielzahl von Computer-Vision-Anwendungen in vielen verschiedenen Branchen und Anwendungsfällen eingesetzt werden. Von der Robotik bis hin zur Fertigung kann es durch die Verbesserung von Arbeitsabläufen und die Ermöglichung einer schnelleren und genaueren Entscheidungsfindung einen erheblichen Einfluss haben.
Ein gutes Beispiel ist die Robotik, wo YOLO26 Robotern helfen kann, ihre Umgebung in Echtzeit zu interpretieren. Dadurch wird die Navigation reibungsloser und die Handhabung von Objekten präziser. Außerdem ermöglicht es eine sicherere Zusammenarbeit mit Menschen.
Ein weiteres Beispiel ist die Fertigung, wo das Modell zur Fehlererkennung eingesetzt werden kann. Es kann automatisch Fehler an Produktionslinien schneller und genauer erkennen als eine manuelle Prüfung.
Abb. 4. Erkennung von Flaschen in einer Produktionsstätte mit YOLO26.
Da YOLO26 besser, schneller und leichter ist, lässt er sich leicht an eine Vielzahl von Umgebungen anpassen, von leichten Edge-Geräten bis hin zu großen Unternehmenssystemen. Dies macht ihn zu einer praktischen Wahl für Branchen, die ihre Effizienz, Genauigkeit und Zuverlässigkeit verbessern möchten.
Die wichtigsten Erkenntnisse
Ultralytics YOLO26 ist ein Computer-Vision-Modell, das besser, schneller und leichter ist, dabei aber einfach zu bedienen bleibt und dennoch eine hohe Leistung bietet. Es eignet sich für eine Vielzahl von Aufgaben und Plattformen und wird ab Ende Oktober für alle verfügbar sein. Wir können es kaum erwarten zu sehen, wie die Community es nutzt, um neue Lösungen zu entwickeln und die Grenzen der Computer Vision zu erweitern.
Werden Sie Teil unserer wachsenden Gemeinschaft! Erkunden Sie unser GitHub-Repository, um mehr über KI zu erfahren. Entdecken Sie Innovationen wie Computer Vision im Einzelhandel und KI in der Automobilindustrie, indem Sie unsere Lösungsseiten besuchen. Wenn Sie noch heute mit der Entwicklung von Computer Vision beginnen möchten, sehen Sie sich unsere Lizenzierungsoptionen an.