Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Wir stellen vor: Ultralytics YOLO26: Ein besseres, schnelleres, kleineres YOLO-Modell

Abirami Vina

5 Min. Lesezeit

25. September 2025

Entdecken Sie das neueste Ultralytics YOLO-Modell, Ultralytics YOLO26, und seine hochmodernen Funktionen, die ein optimales Gleichgewicht zwischen Geschwindigkeit, Genauigkeit und Einsatzfähigkeit unterstützen.

Am 25. September, auf unserer jährlichen Hybridveranstaltung, YOLO Vision 2025 (YV25) in London, kündigte Glenn Jocher, unser Gründer und CEO, offiziell den neuesten Durchbruch in der Ultralytics YOLO-Modellreihe an, Ultralytics YOLO26! Unser neues Computer-Vision-Modell, YOLO26, kann Bilder und Videos mit einer optimierten Architektur analysieren und interpretieren, die Geschwindigkeit, Genauigkeit und einfache Bereitstellung in Einklang bringt. 

Während Ultralytics YOLO26 Aspekte des Modelldesigns vereinfacht und neue Verbesserungen hinzufügt, bietet es weiterhin die vertrauten Funktionen, die Benutzer von Ultralytics YOLO-Modellen erwarten. Zum Beispiel ist Ultralytics YOLO26 einfach zu bedienen, unterstützt eine Reihe von Computer-Vision-Aufgaben und bietet flexible Integrations- und Bereitstellungsoptionen. 

Unnötig zu erwähnen, dass dies den Umstieg auf Ultralytics YOLO26 problemlos macht, und wir können es kaum erwarten, dass die Benutzer es selbst erleben, wenn es Ende Oktober öffentlich verfügbar wird. 

Abb. 1. Ein Beispiel für die Verwendung von YOLO26 zur Erkennung von Objekten in einem Bild.

Einfach ausgedrückt: Ultralytics YOLO26 ist ein besseres, schnelleres und kleineres Vision AI-Modell. In diesem Artikel werden wir die wichtigsten Funktionen von Ultralytics YOLO26 untersuchen und was es zu bieten hat. Lass uns anfangen! 

Die Grenzen von Vision AI mit Ultralytics YOLO26 erweitern

Bevor wir uns mit den wichtigsten Funktionen von Ultralytics YOLO26 und den Anwendungen befassen, die es ermöglicht, wollen wir einen Schritt zurücktreten und die Inspiration und Motivation erörtern, die die Entwicklung dieses Modells vorangetrieben haben.

Wir bei Ultralytics haben immer an die Kraft der Innovation geglaubt. Von Anfang an war es unsere Mission, zweierlei zu erreichen. Einerseits wollen wir Vision AI zugänglich machen, damit jeder sie ohne Barrieren nutzen kann. Andererseits sind wir gleichermaßen bestrebt, sie auf dem neuesten Stand zu halten und die Grenzen dessen zu verschieben, was Computer Vision Modelle leisten können.

Ein Schlüsselfaktor für diese Mission ist, dass sich der KI-Bereich ständig weiterentwickelt. So wird beispielsweise Edge AI, bei dem KI-Modelle direkt auf Geräten ausgeführt werden, anstatt sich auf die Cloud zu verlassen, in allen Branchen schnell eingesetzt.

Von intelligenten Kameras bis hin zu autonomen Systemen wird von Geräten am Edge heute erwartet, dass sie Informationen in Echtzeit verarbeiten. Diese Verlagerung erfordert Modelle, die leichter und schneller sind und gleichzeitig die gleiche hohe Genauigkeit liefern.

Deshalb ist es notwendig, unsere Ultralytics YOLO-Modelle ständig zu verbessern. Glenn Jocher drückt es so aus: “Eine der größten Herausforderungen bestand darin, sicherzustellen, dass die Benutzer YOLO26 optimal nutzen können und gleichzeitig eine Spitzenleistung erzielen.”

Ein Überblick über Ultralytics YOLOv8

YOLO26 ist standardmäßig in fünf verschiedenen Modellvarianten erhältlich, die Ihnen die Flexibilität geben, seine Fähigkeiten in Anwendungen jeder Größenordnung zu nutzen. 
Alle diese Modellvarianten unterstützen mehrere Computer-Vision-Aufgaben, genau wie frühere Ultralytics YOLO-Modelle. Das bedeutet, dass Sie sich unabhängig von der Größe, die Sie wählen, darauf verlassen können, dass YOLO26 eine breite Palette von Funktionen bietet, ähnlich wie Ultralytics YOLO11.

Hier ist ein Überblick über die von YOLO26 unterstützten Computer-Vision-Aufgaben:

  • Objekterkennung: YOLO26 kann mehrere Objekte innerhalb eines Bild- oder Video-Frames identifizieren und lokalisieren.
  • Instanzsegmentierung: YOLO26 geht noch einen Schritt über die Erkennung hinaus und kann pixelgenaue Grenzen um jedes identifizierte Objekt erzeugen. 
  • Bildklassifizierung: Das Modell kann ein ganzes Bild analysieren und es einer bestimmten Kategorie oder einem Label zuordnen.

  • Pose-Schätzung: YOLO26 kann Keypoints erkennen und Posen für Menschen sowie andere Objekte schätzen.

  • Orientierte Bounding Boxes (OBB): Das Modell kann Objekte in jedem Winkel erkennen, was besonders nützlich für Luft-, Drohnen- und Satellitenbilder ist, bei denen Elemente wie Gebäude, Fahrzeuge oder Feldfrüchte möglicherweise nicht mit dem Bildrahmen ausgerichtet sind.

  • Objektverfolgung: YOLO26 kann verwendet werden, um Objekte über Video-Frames oder Echtzeit-Streams hinweg zu verfolgen.
Abb. 2. Erkennung von Objekten in einem Bild mit YOLO26.

Ein Blick auf die Architektur von YOLO26

Nachdem wir nun ein besseres Verständnis davon haben, wozu YOLO26 in der Lage ist, wollen wir uns einige der Innovationen in seiner Architektur ansehen.

Das Design des Modells wurde durch Entfernen des Distribution Focal Loss (DFL)-Moduls optimiert, das zuvor die Inferenz verlangsamte und die Bounding-Box-Regression einschränkte. 

Der Vorhersageprozess wurde auch mit einer End-to-End (E2E) Inferenzoption vereinfacht, mit der das Modell den traditionellen Non-Maximum Suppression (NMS)-Schritt überspringen kann. Diese Verbesserung reduziert die Komplexität und ermöglicht es dem Modell, Ergebnisse schneller zu liefern, was die Bereitstellung in realen Anwendungen vereinfacht.

Andere Verbesserungen machen das Modell intelligenter und zuverlässiger. Progressive Loss Balancing (ProgLoss) hilft, das Training zu stabilisieren und die Genauigkeit zu verbessern, während Small-Target-Aware Label Assignment (STAL) sicherstellt, dass das Modell kleine Objekte effektiver erkennt. Darüber hinaus verbessert ein neuer MuSGD-Optimierer die Trainingskonvergenz und steigert die Gesamtleistung.

Tatsächlich läuft die kleinste Version von YOLO26, das Nano-Modell, jetzt bis zu 43 % schneller auf Standard-CPUs, was es besonders gut für mobile Apps, intelligente Kameras und andere Edge-Geräte geeignet macht, bei denen Geschwindigkeit und Effizienz entscheidend sind.

Hier ist eine kurze Zusammenfassung der Funktionen von YOLO26 und worauf sich Benutzer freuen können:

  • DFL-Entfernung: Wir haben das Distribution Focal Loss-Modul aus der Architektur des Modells entfernt. Unabhängig von den Objektgrößen in einem Bild kann YOLO26 maßgeschneiderte Bounding Boxes platzieren und gleichzeitig effizienter laufen.
  • End-to-End NMS-freie Inferenz: YOLO26 bietet einen optionalen Modus, der keine Non-Maximum Suppression (NMS) benötigt. NMS ist ein Schritt, der normalerweise verwendet wird, um doppelte Vorhersagen zu entfernen, was die Bereitstellung für den Echtzeitgebrauch vereinfacht und beschleunigt.
  • ProgLoss und STAL: Diese Verbesserungen stabilisieren das Training und steigern die Genauigkeit erheblich, insbesondere bei der Erkennung kleiner Objekte in komplexen Szenen.
  • MuSGD-Optimierer: YOLO26 verwendet einen neuen Optimierer, der die Stärken zweier Trainingsoptimierer (Muon und SGD) kombiniert, wodurch das Modell schneller lernt und eine höhere Genauigkeit erreicht.
Abb. 3. Benchmarking von YOLO26.

Vereinfachte Bereitstellung mit Ultralytics YOLO26 

Ob Sie an mobilen Apps, intelligenten Kameras oder Unternehmenssystemen arbeiten, die Bereitstellung von YOLO26 ist einfach und flexibel. Das Ultralytics Python-Paket unterstützt eine ständig wachsende Anzahl von Exportformaten, was die Integration von YOLO26 in bestehende Arbeitsabläufe vereinfacht und es mit fast jeder Plattform kompatibel macht. 

Einige der Exportoptionen umfassen TensorRT für maximale GPU-Beschleunigung, ONNX für breite Kompatibilität, CoreML für native iOS-Apps, TFLite für Android- und Edge-Geräte und OpenVINO für optimierte Leistung auf Intel-Hardware. Diese Flexibilität macht es einfach, YOLOv8 von der Entwicklung in die Produktion zu überführen, ohne zusätzliche Hürden.

Ein weiterer wichtiger Teil der Bereitstellung ist die Sicherstellung, dass Modelle effizient auf Geräten mit begrenzten Ressourcen laufen. Hier kommt die Quantisierung ins Spiel. Dank seiner vereinfachten Architektur meistert YOLO26 dies außergewöhnlich gut. Es unterstützt die INT8-Bereitstellung (Verwendung von 8-Bit-Komprimierung zur Reduzierung der Größe und Verbesserung der Geschwindigkeit bei minimalem Genauigkeitsverlust) sowie die Halbpräzision (FP16) für schnellere Inferenz auf unterstützter Hardware. 

Am wichtigsten ist, dass YOLO26 über diese Quantisierungsstufen hinweg eine konsistente Leistung erbringt, sodass Sie sich darauf verlassen können, egal ob es auf einem leistungsstarken Server oder einem kompakten Edge-Gerät läuft.

Von Robotik bis Fertigung: Anwendungsfälle von YOLOv8 

YOLO26 kann in einer Vielzahl von Computer-Vision-Anwendungen in vielen verschiedenen Branchen und Anwendungsfällen eingesetzt werden. Von der Robotik bis zur Fertigung kann es einen erheblichen Einfluss haben, indem es Arbeitsabläufe verbessert und schnellere, genauere Entscheidungen ermöglicht.

Ein gutes Beispiel ist beispielsweise die Robotik, wo YOLO26 Robotern helfen kann, ihre Umgebung in Echtzeit zu interpretieren. Dies ermöglicht eine reibungslosere Navigation und eine präzisere Handhabung von Objekten. Es ermöglicht auch eine sicherere Zusammenarbeit mit Menschen.

Ein weiteres Beispiel ist die Fertigung, wo das Modell zur Fehlererkennung eingesetzt werden kann. Es kann Fehler auf Produktionslinien automatisch schneller und genauer erkennen als die manuelle Inspektion.

Abb. 4. Erkennung von Flaschen in einer Produktionsfabrik mit YOLO26.

Im Allgemeinen passt sich YOLO26, da es besser, schneller und leichter ist, problemlos an eine Vielzahl von Umgebungen an, von leichten Edge-Geräten bis hin zu großen Unternehmenssystemen. Dies macht es zu einer praktischen Wahl für Branchen, die Effizienz, Genauigkeit und Zuverlässigkeit verbessern möchten.

Wesentliche Erkenntnisse 

Ultralytics YOLO26 ist ein Computer Vision Modell, das besser, schneller und schlanker ist und dabei einfach zu bedienen bleibt und dennoch eine starke Leistung liefert. Es funktioniert über eine Vielzahl von Aufgaben und Plattformen hinweg und wird bis Ende Oktober für alle verfügbar sein. Wir sind gespannt, wie die Community es nutzen wird, um neue Lösungen zu entwickeln und die Grenzen der Computer Vision zu erweitern.

Treten Sie unserer wachsenden Community bei! Erkunden Sie unser GitHub-Repository, um mehr über KI zu erfahren. Entdecken Sie Innovationen wie Computer Vision im Einzelhandel und KI in der Automobilindustrie, indem Sie unsere Lösungsseiten besuchen. Um noch heute mit Computer Vision zu entwickeln, sehen Sie sich unsere Lizenzoptionen an.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert