Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Ultralytics : Der neue Standard für Edge-First-Vision-KI

Erfahren Sie, wie Ultralytics mit durchgängiger, NMS Inferenz, schnellerer CPU und vereinfachter Produktionsbereitstellung einen neuen Standard für Edge-First-Vision-KI setzt.

Heute bringt Ultralytics YOLO26 auf den Markt, das bislang fortschrittlichste und am besten einsetzbare YOLO . YOLO26 wurde erstmals auf YOLO 2025 (YV25) vorgestellt und stellt eine grundlegende Veränderung in der Art und Weise dar, wie Computer-Vision-Modelle in realen Systemen trainiert, eingesetzt und skaliert werden. 

Vision AI bewegt sich rasch in Richtung Edge. Bilder und Videos werden zunehmend direkt auf Geräten, Kameras, Robotern und eingebetteten Systemen verarbeitet, wo Latenz, Zuverlässigkeit und Kosten eine größere Rolle spielen als reine Cloud-Rechenleistung. YOLO26 wurde für diese Realität entwickelt und bietet weltweit führende Leistung bei effizientem Betrieb auf CPUs, Edge-Beschleunigern und Hardware mit geringem Stromverbrauch.

YOLO26 ist zwar ein bedeutender Fortschritt, behält aber dennoch das vertraute, optimierte Ultralytics YOLO -Erfahrung, auf die sich Entwickler verlassen. Es fügt sich nahtlos in bestehende Arbeitsabläufe ein, unterstützt eine Vielzahl von Bildverarbeitungsaufgaben und ist weiterhin einfach zu bedienen, sodass es sowohl für Forschungs- als auch für Produktionsteams leicht zu implementieren ist.

Ultralytics für die Objekterkennung
Abb. 1: Beispiel für die Verwendung von Ultralytics zur Objekterkennung

In diesem Artikel erklären wir Ihnen alles, was Sie über Ultralytics wissen müssen, und was ein leichteres, kleineres und schnelleres YOLO für die Zukunft der Bildverarbeitungs-KI bedeutet. Los geht's!

Ultralytics setzt neue Maßstäbe für Vision-KI

Ultralytics basiert auf der Idee, dass leistungsstarke KI-Funktionen für Bildverarbeitung für alle leicht zugänglich sein sollten. Wir sind der Meinung, dass leistungsstarke Computer-Vision -Tools nicht hinter verschlossenen Türen bleiben oder auf eine kleine Gruppe von Organisationen beschränkt sein sollten.

Auf der YV25 in London teilte unser Gründer und CEO Glenn Jocher seine Gedanken zu dieser Vision mit und sagte: „Die beeindruckendste KI-Technologie findet hinter verschlossenen Türen statt. Sie ist nicht öffentlich zugänglich. Große Unternehmen kontrollieren neue Entwicklungen, und alle anderen müssen sich gedulden, bis sie Zugang erhalten. Wir bei Ultralytics haben eine andere Vision. Wir möchten, dass KI für alle zugänglich ist.“

Er erklärte auch, dass dies bedeute, KI aus der Cloud in reale Umgebungen zu bringen, und fügte hinzu: „Wir wollen, dass die Technologie nicht nur in der Cloud bleibt, sondern auch in Edge-Geräte, in Ihr Smartphone, Ihre Fahrzeuge und energiesparende Systeme integriert wird. Und wir möchten, dass diese großartigen Menschen, die Lösungen entwickeln, Zugang dazu haben.“

YOLO26 spiegelt diese Vision in der Praxis wider: ein Modell, das dafür entwickelt wurde, dort zu laufen, wo visuelle KI tatsächlich eingesetzt wird, und nicht dort, wo es am einfachsten ist, Prototypen zu erstellen.

Ultralytics im Detail: Ein hochmodernes Bildverarbeitungsmodell

Wie frühere Ultralytics YOLO unterstützt YOLO26 mehrere Computer-Vision-Aufgaben innerhalb einer einzigen, einheitlichen Modellfamilie. Es ist in fünf Größen erhältlich: Nano (n), Small (s), Medium (m), Large (l) und Extra Large (x). So können Teams je nach Einsatzbedingungen ein Gleichgewicht zwischen Geschwindigkeit, Genauigkeit und Modellgröße herstellen.

Über die Flexibilität hinaus setzt YOLO26 neue Maßstäbe in Sachen Leistung. Im Vergleich zu YOLO11 bietet das YOLO26-Nano-Modell CPU um bis zu 43 % schnellere CPU und ist damit eines der schnellsten hochpräzisen Objekterkennungsmodelle, die für den Einsatz am Rand und CPU verfügbar sind.

Ultralytics YOLO26
Abb. 2: Ultralytics ist ein hochmodernes Bildverarbeitungsmodell.

Hier ein genauerer Blick auf die von YOLO26 unterstützten Computer-Vision-Aufgaben:

  • Bildklassifizierung: YOLO26 kann ein gesamtes Bild analysieren und es einer bestimmten Kategorie zuordnen, wodurch Systeme den Gesamtkontext einer Szene besser verstehen können.
  • Objekterkennung: Das Modell kann mehrere Objekte in Bildern oder Videos finden und lokalisieren.
  • Instanzsegmentierung: YOLO26 kann einzelne Objekte mit Details auf Pixelebene umreißen.
  • Posen-Schätzung: Sie kann verwendet werden, um Schlüsselpunkte zu identifizieren und Posen für Personen und andere Objekte zu schätzen.
  • Orientierte Begrenzungsrahmenerkennung (OBB): YOLO26 kann detect in verschiedenen Winkeln detect , was besonders für Luft- und Satellitenbilder nützlich ist.
  • Objektverfolgung: In Kombination mit dem Ultralytics Python kann YOLO26 verwendet werden, um Objekte über Videobilder und Live-Streams hinweg zu verfolgen.

Alle Aufgaben unterstützen Training, Validierung, Inferenz und Export innerhalb eines einheitlichen Rahmens.

Wichtige Innovationen hinter Ultralytics

Ultralytics führt mehrere zentrale Innovationen ein, die die Inferenzgeschwindigkeit, die Trainingsstabilität und die Einfachheit der Bereitstellung verbessern. Hier ein Überblick über diese Innovationen:

  • Entfernung von Distribution Focal Loss (DFL): Das DFL-Modul wurde entfernt, um die Vorhersage von Begrenzungsrahmen zu vereinfachen, die Hardwarekompatibilität zu verbessern und den Export und die Ausführung von Modellen auf Edge- und Low-Power-Geräten zu vereinfachen.
  • End-to-End-Inferenz NMS: YOLO26 ist als natives End-to-End-Modell konzipiert, das direkt endgültige Vorhersagen ausgibt, wodurch die Notwendigkeit einer Nicht-Maximal-Unterdrückung entfällt und die Inferenzlatenz sowie die Komplexität der Bereitstellung reduziert werden.
  • Progressive Loss Balancing + STAL: Diese verbesserten Verluststrategien stabilisieren das Training und verbessern die Erkennungsgenauigkeit, insbesondere bei kleinen,detect .
  • MuSGD-Optimierer: YOLO26 verwendet einen neuen Hybrid-Optimierer, der SGD von Muonen inspirierten Optimierungstechniken kombiniert, um ein stabileres Training zu ermöglichen.
  • Bis zu 43 % schnellere CPU : YOLO26 wurde speziell für Edge-Computing optimiert und bietet CPU bis zu 43 % schnellere CPU , wodurch Echtzeitleistung auf Edge-Geräten ermöglicht wird.

Als Nächstes wollen wir uns diese Funktionen der nächsten Generation, die YOLO26 schneller, effizienter und einfacher zu implementieren machen, im Detail ansehen.

Vereinfachung der Vorhersage durch Entfernung des Distributionsfokusverlusts

Frühere YOLO verwendeten während des Trainings Distribution Focal Loss (DFL), um die Genauigkeit der Begrenzungsrahmen zu verbessern. DFL war zwar effektiv, führte jedoch zu zusätzlicher Komplexität und erlegte feste Regressionsgrenzen auf, die den Export und die Bereitstellung erschwerten, insbesondere auf Edge- und Low-Power-Hardware.

YOLO26 entfernt DFL vollständig. Durch das Entfernen von DFL werden die in früheren Modellen vorhandenen festen Begrenzungsrahmen-Regressionsgrenzen beseitigt, wodurch die Zuverlässigkeit und Genauigkeit bei der Erkennung sehr großer Objekte verbessert wird.

Durch die Vereinfachung des Prozesses zur Vorhersage der Begrenzungsrahmen lässt sich YOLO26 leichter exportieren und läuft zuverlässiger auf einer Vielzahl von Edge- und Low-Power-Geräten.

End-to-End-Inferenz NMS mit Ultralytics

Herkömmliche Pipelines zur Objekterkennung nutzen Non-Maximum Suppression (NMS) als Nachbearbeitungsschritt, um überlappende Vorhersagen zu filtern. NMS ist zwar effektiv, NMS jedoch die Latenz, Komplexität und Anfälligkeit, insbesondere bei der Bereitstellung von Modellen über mehrere Laufzeiten und Hardwareziele hinweg.

YOLO26 führt einen nativen End-to-End-Inferenzmodus ein, bei dem das Modell direkt endgültige Vorhersagen ausgibt, ohne dass NMS separater Nachbearbeitungsschritt erforderlich ist. Doppelte Vorhersagen werden innerhalb des Netzwerks selbst behandelt.

Durch die Eliminierung NMS Latenzen NMS , Bereitstellungspipelines vereinfacht und das Risiko von Integrationsfehlern verringert, wodurch sich YOLO26 besonders gut für Echtzeit- und Edge-Bereitstellungen eignet.

Verbesserung der Erkennung mit Progressive Loss Balancing + STAL

Ein entscheidendes Merkmal im Zusammenhang mit dem Training ist die Einführung von Progressive Loss Balancing (ProgLoss) und Small-Target-Aware Label Assignment (STAL). Diese verbesserten Verlustfunktionen tragen zur Stabilisierung des Trainings und zur Verbesserung der Erkennungsgenauigkeit bei.

ProgLoss hilft dem Modell, während des Trainings konsistenter zu lernen, reduziert Instabilität und ermöglicht eine reibungslosere Konvergenz. STAL konzentriert sich hingegen darauf, die Lernfähigkeit des Modells in Bezug auf kleine Objekte zu verbessern, die detect begrenzter visueller Details oft schwieriger zu detect sind.

Zusammen sorgen ProgLoss und STAL für zuverlässigere Erkennungen und spürbare Verbesserungen bei der Erkennung kleiner Objekte. Dies ist besonders wichtig für Randanwendungen wie das Internet der Dinge (IoT), Robotik und Luftbildaufnahmen, bei denen Objekte oft klein, weit entfernt oder nur teilweise sichtbar sind.

Stabileres Training mit dem MuSGD-Optimierer 

Mit YOLO26 haben wir einen neuen Optimierer namens MuSGD eingeführt, der das Training stabiler und effizienter machen soll. MuSGD ist ein hybrider Ansatz, der die Stärken des traditionellen stochastischen Gradientenabstiegs (SGD) mit Techniken kombiniert, die von Muon inspiriert sind, einem Optimierer, der beim Training großer Sprachmodelle (LLM) verwendet wird.

SGD aufgrund seiner Einfachheit und starken Generalisierbarkeit seit langem eine zuverlässige Wahl im Bereich der Bildverarbeitung. Gleichzeitig haben die jüngsten Fortschritte im LLM-Training gezeigt, dass neuere Optimierungsmethoden bei sorgfältiger Anwendung die Stabilität und Geschwindigkeit verbessern können. MuSGD bringt einige dieser Ideen in den Bereich der Bildverarbeitung ein.

Inspiriert von Kimi K2 von Moonshot AI enthält MuSGD Optimierungsstrategien, die dazu beitragen, dass das Modell während des Trainings reibungsloser konvergiert. Dadurch kann YOLO26 schneller eine starke Leistung erzielen und gleichzeitig die Instabilität des Trainings reduzieren, insbesondere bei größeren oder komplexeren Trainingskonfigurationen.

MuSGD hilft YOLO26 dabei, über verschiedene Modellgrößen hinweg vorhersehbarer zu trainieren, was sowohl zu Leistungssteigerungen als auch zu einer höheren Trainingsstabilität beiträgt.

Ultralytics bietet CPU um bis zu 43 % schnellere CPU .

Da Vision-KI immer näher an den Ort rückt, an dem Daten generiert werden, wird eine starke Edge-Leistung immer wichtiger. YOLO26 wurde speziell für Edge-Computing optimiert und bietet CPU um bis zu 43 % schnellere CPU , wodurch Echtzeitleistung auf Geräten ohne GPUs gewährleistet wird. Diese Verbesserung ermöglicht reaktionsschnelle, zuverlässige Bildverarbeitungssysteme, die direkt auf Kameras, Robotern und eingebetteter Hardware laufen, wo Latenz, Effizienz und Kostenbeschränkungen die Möglichkeiten bestimmen.

Verbesserte Computer-Vision-Aufgaben, unterstützt durch Ultralytics

Neben architektonischen Verbesserungen, die die Objekterkennung genauer machen, enthält YOLO26 auch aufgabenspezifische Optimierungen, die die Leistung bei allen Computer-Vision-Aufgaben verbessern sollen. So verbessert es beispielsweise die Instanzsegmentierung, die Posenschätzung und die orientierte Begrenzungsrahmenerkennung durch gezielte Aktualisierungen, die die Genauigkeit und Zuverlässigkeit erhöhen.

Hier ist eine Übersicht über diese Optimierungen:

  • Instanzsegmentierung: YOLO26 nutzt semantische Segmentierungsverluste, um das Lernen des Modells während des Trainings zu verbessern, was zu genaueren und konsistenteren Instanzmasken führt. Ein verbessertes Proto-Modul ermöglicht außerdem die Verwendung von Informationen aus mehreren Skalen, sodass das Modell Objekte unterschiedlicher Größe auch in komplexen Szenen effektiver verarbeiten kann.
  • Posen-Schätzung: Durch die Integration der Residual Log-Likelihood Estimation (RLE), einer Technik, die Unsicherheiten bei der Vorhersage von Schlüsselpunkten modelliert, und durch die Verbesserung des Dekodierungsprozesses liefert YOLO26 genauere Schlüsselpunkte mit besserer Echtzeitleistung.
  • Orientierte Begrenzungsrahmenerkennung: YOLO26 führt einen speziellen Winkelverlust ein, der dem Modell hilft, die Objektrotation genauer zu lernen, insbesondere bei quadratischen Objekten, bei denen die Ausrichtung mehrdeutig sein kann. Die optimierte OBB-Decodierung reduziert auch plötzliche Sprünge in den Winkelvorhersagen in der Nähe von Rotationsgrenzen, was zu stabileren und konsistenteren Ausrichtungsschätzungen führt.
Verwendung von Ultralytics für die Instanzsegmentierung.
Abb. 3: Verwendung von Ultralytics für die Instanzsegmentierung.

Ultralytics : Segmentierung mit offenem Vokabular auf Basis von YOLO26

Ultralytics außerdem YOLOE-26 vor, eine neue Familie von Segmentierungsmodellen mit offenem Vokabular, die auf der Architektur und den Trainingsinnovationen von YOLO26 aufbauen.

YOLOE-26 ist keine neue Aufgabe oder Funktion, sondern eine spezialisierte Modellfamilie, die die bestehende Segmentierungsaufgabe wiederverwendet und gleichzeitig Text-Prompts, visuelle Prompts und Prompt-freie Inferenz ermöglicht. YOLOE-26 ist für alle YOLO verfügbar und bietet eine höhere Genauigkeit und zuverlässigere Leistung in der Praxis als frühere Segmentierungsmodelle mit offenem Vokabular.

Ultralytics wurde für den Einsatzort entwickelt, an dem Vision AI tatsächlich ausgeführt wird.

Von bildverarbeitungsgesteuerten Kameras bis hin zu Robotern, die mit Computer Vision und winzigen Prozessorchips am Rand ausgestattet sind, werden Computer Vision und KI direkt auf dem Gerät für Echtzeit-Inferenzen eingesetzt. Ultralytics wurde speziell für diese Umgebungen entwickelt, in denen geringe Latenz, Effizienz und zuverlässige Leistung von entscheidender Bedeutung sind.

In der Praxis bedeutet dies, dass YOLO26 problemlos auf einer Vielzahl von Hardwareplattformen eingesetzt werden kann. Konkret können Modelle dank desPython und seiner vielfältigen Integrationsmöglichkeiten in Formate exportiert werden, die für verschiedene Plattformen und Hardwarebeschleuniger optimiert sind.

Beispielsweise TensorRT der Export nach TensorRT eine leistungsstarke Inferenz auf NVIDIA , während CoreML die native Bereitstellung auf Apple-Geräten CoreML und OpenVINO die Leistung auf Intel OpenVINO . YOLO26 kann auch für die Ausführung auf mehreren dedizierten Edge-Beschleunigern exportiert werden, was eine energieeffiziente Inferenz mit hohem Durchsatz auf spezialisierter Edge-AI-Hardware ermöglicht. 

Dies sind nur einige Beispiele, denn es werden noch viele weitere Integrationen in Edge- und Produktionsumgebungen unterstützt. Dank dieser Flexibilität kann ein einziges YOLO26-Modell auf verschiedenen Bereitstellungszielen ausgeführt werden. Dies optimiert Produktionsabläufe und bringt Vision AI näher an den Edge.

Neudefinition von Anwendungsfällen für Computer Vision in verschiedenen Branchen

YOLO26 wurde für den Einsatz in der Praxis entwickelt und kann in einer Vielzahl von Anwendungsfällen der Bildverarbeitung in verschiedenen Branchen eingesetzt werden. Hier sind einige Beispiele für Anwendungsbereiche:

  • Robotik: YOLO26 kann für Aufgaben wie Navigation, Hinderniserkennung und Objektinteraktion eingesetzt werden. Diese Fähigkeiten unterstützen einen sicheren und effektiven Roboterbetrieb in dynamischen Umgebungen.
  • Fertigung: In Produktionslinien kann YOLO26 Bilder und Videos analysieren, um Fehler, fehlende Komponenten oder Prozessprobleme zu erkennen. Die Verarbeitung der Daten auf dem Gerät sorgt für eine schnelle Erkennung und reduziert die Abhängigkeit von Cloud-Systemen.
  • Luftbild- und Drohnenanwendungen: Bei Einsatz auf Drohnen kann YOLO26 während des Fluges Luftbilder für Inspektions-, Kartierungs- und Vermessungszwecke verarbeiten. Dadurch ist es möglich, Szenen in Echtzeit zu analysieren, selbst an abgelegenen Orten.
  • Embedded- und IoT-Systeme: Dank seines schlanken Designs kann YOLO26 auf eingebetteter Hardware mit geringem Stromverbrauch ausgeführt werden, um visuelle Daten lokal zu verarbeiten. Zu den gängigen Anwendungsfällen zählen intelligente Kameras, vernetzte Sensoren und automatisierte Überwachungsgeräte.

Intelligente Städte: In städtischen Umgebungen kann YOLO26 Videostreams von Verkehrs- und öffentlichen Kameras analysieren. Dies ermöglicht Anwendungen wie Verkehrsüberwachung, öffentliche Sicherheit und Infrastrukturmanagement am Netzwerkrand.

YOLO26 kann für verschiedene Computer-Vision-Anwendungen eingesetzt werden.
Abb. 4: YOLO26 kann für verschiedene Computer-Vision-Anwendungen eingesetzt werden.

Erste Schritte mit Ultralytics

Ultralytics kann über zwei sich ergänzende Workflows genutzt werden, je nachdem, wie Sie Vision-KI entwickeln und einsetzen.

Option 1: Verwenden Sie Ultralytics über die Ultralytics (empfohlen)

Die Ultralytics bietet eine zentralisierte Möglichkeit zum Trainieren, Bereitstellen und Überwachen von YOLO26-Modellen in der Produktion. Sie vereint Datensätze, Experimente und Bereitstellungen an einem Ort und erleichtert so die Verwaltung von Vision-AI-Workflows in großem Maßstab, insbesondere für Teams, die in Edge- und Produktionsumgebungen bereitstellen.

Über die Plattform können Nutzer:

  • Zugriff auf YOLO26-Modelle
  • Trainieren und optimieren Sie anhand benutzerdefinierter Datensätze.
  • Exportmodelle für Edge- und Produktionsbereitstellung
  • Überwachen Sie Experimente und eingesetzte Modelle in einem einzigen Arbeitsablauf.

👉 Entdecken Sie YOLO26 auf der Ultralytics : platform.ultralytics.ultralytics

Option 2: Verwenden Sie Ultralytics über Open-Source-Workflows.

YOLO26 bleibt über das Open-Source-Ökosystem Ultralyticsvollständig zugänglich und kann mit bestehenden Python Workflows für Training, Inferenz und Export verwendet werden.

Entwickler können das Ultralytics installieren, vortrainierte YOLO26-Modelle laden und diese mit vertrauten Tools und Formaten wie ONNX, TensorRT, CoreML oder OpenVINO bereitstellen.

pip install ultralytics
from ultralytics import YOLO

# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Für Benutzer, die eine manuelle Steuerung oder benutzerdefinierte Pipelines bevorzugen, stehen in den Ultralytics umfassende Dokumentationen und Anleitungen zur Verfügung.

Ultralytics : Entwickelt für die Zukunft der Bildverarbeitung

Ultralytics wurde entwickelt, um den Anforderungen der Vision-KI-Lösungen von morgen gerecht zu werden, bei denen Modelle schnell, effizient und einfach auf realer Hardware einsetzbar sein müssen. Durch die Verbesserung der Leistung, die Vereinfachung der Bereitstellung und die Erweiterung der Möglichkeiten des Modells fügt sich YOLO26 nahtlos in eine Vielzahl von realen Anwendungen ein. YOLO26 setzt neue Maßstäbe für die Entwicklung, Bereitstellung und Skalierung von Vision-KI. Wir sind gespannt, wie die Community es für die Bereitstellung realer Computer-Vision-Systeme einsetzen wird.

Schließen Sie sich unserer wachsenden Community an und erkunden Sie unser GitHub-Repository für praktische KI-Ressourcen. Um noch heute mit Vision AI zu arbeiten, erkunden Sie unsere Lizenzierungsoptionen. Erfahren Sie, wie KI in der Landwirtschaft die Landwirtschaft verändert und wie Vision AI in der Robotik die Zukunft gestaltet, indem Sie unsere Lösungsseiten besuchen.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten