Erfahren Sie, wie Ultralytics mit durchgängiger, NMS Inferenz, schnellerer CPU und vereinfachter Produktionsbereitstellung einen neuen Standard für Edge-First-Vision-KI setzt.

Erfahren Sie, wie Ultralytics mit durchgängiger, NMS Inferenz, schnellerer CPU und vereinfachter Produktionsbereitstellung einen neuen Standard für Edge-First-Vision-KI setzt.

Heute bringt Ultralytics YOLO26 auf den Markt, das bislang fortschrittlichste und am besten einsetzbare YOLO . YOLO26 wurde erstmals auf YOLO 2025 (YV25) vorgestellt und stellt eine grundlegende Veränderung in der Art und Weise dar, wie Computer-Vision-Modelle in realen Systemen trainiert, eingesetzt und skaliert werden.
Vision AI bewegt sich rasch in Richtung Edge. Bilder und Videos werden zunehmend direkt auf Geräten, Kameras, Robotern und eingebetteten Systemen verarbeitet, wo Latenz, Zuverlässigkeit und Kosten eine größere Rolle spielen als reine Cloud-Rechenleistung. YOLO26 wurde für diese Realität entwickelt und bietet weltweit führende Leistung bei effizientem Betrieb auf CPUs, Edge-Beschleunigern und Hardware mit geringem Stromverbrauch.
YOLO26 ist zwar ein bedeutender Fortschritt, behält aber dennoch das vertraute, optimierte Ultralytics YOLO -Erfahrung, auf die sich Entwickler verlassen. Es fügt sich nahtlos in bestehende Arbeitsabläufe ein, unterstützt eine Vielzahl von Bildverarbeitungsaufgaben und ist weiterhin einfach zu bedienen, sodass es sowohl für Forschungs- als auch für Produktionsteams leicht zu implementieren ist.

In diesem Artikel erklären wir Ihnen alles, was Sie über Ultralytics wissen müssen, und was ein leichteres, kleineres und schnelleres YOLO für die Zukunft der Bildverarbeitungs-KI bedeutet. Los geht's!
Ultralytics basiert auf der Idee, dass leistungsstarke KI-Funktionen für Bildverarbeitung für alle leicht zugänglich sein sollten. Wir sind der Meinung, dass leistungsstarke Computer-Vision -Tools nicht hinter verschlossenen Türen bleiben oder auf eine kleine Gruppe von Organisationen beschränkt sein sollten.
Auf der YV25 in London teilte unser Gründer und CEO Glenn Jocher seine Gedanken zu dieser Vision mit und sagte: „Die beeindruckendste KI-Technologie findet hinter verschlossenen Türen statt. Sie ist nicht öffentlich zugänglich. Große Unternehmen kontrollieren neue Entwicklungen, und alle anderen müssen sich gedulden, bis sie Zugang erhalten. Wir bei Ultralytics haben eine andere Vision. Wir möchten, dass KI für alle zugänglich ist.“
Er erklärte auch, dass dies bedeute, KI aus der Cloud in reale Umgebungen zu bringen, und fügte hinzu: „Wir wollen, dass die Technologie nicht nur in der Cloud bleibt, sondern auch in Edge-Geräte, in Ihr Smartphone, Ihre Fahrzeuge und energiesparende Systeme integriert wird. Und wir möchten, dass diese großartigen Menschen, die Lösungen entwickeln, Zugang dazu haben.“
YOLO26 spiegelt diese Vision in der Praxis wider: ein Modell, das dafür entwickelt wurde, dort zu laufen, wo visuelle KI tatsächlich eingesetzt wird, und nicht dort, wo es am einfachsten ist, Prototypen zu erstellen.
Wie frühere Ultralytics YOLO unterstützt YOLO26 mehrere Computer-Vision-Aufgaben innerhalb einer einzigen, einheitlichen Modellfamilie. Es ist in fünf Größen erhältlich: Nano (n), Small (s), Medium (m), Large (l) und Extra Large (x). So können Teams je nach Einsatzbedingungen ein Gleichgewicht zwischen Geschwindigkeit, Genauigkeit und Modellgröße herstellen.
Über die Flexibilität hinaus setzt YOLO26 neue Maßstäbe in Sachen Leistung. Im Vergleich zu YOLO11 bietet das YOLO26-Nano-Modell CPU um bis zu 43 % schnellere CPU und ist damit eines der schnellsten hochpräzisen Objekterkennungsmodelle, die für den Einsatz am Rand und CPU verfügbar sind.
.webp)
Hier ein genauerer Blick auf die von YOLO26 unterstützten Computer-Vision-Aufgaben:
Alle Aufgaben unterstützen Training, Validierung, Inferenz und Export innerhalb eines einheitlichen Rahmens.
Ultralytics führt mehrere zentrale Innovationen ein, die die Inferenzgeschwindigkeit, die Trainingsstabilität und die Einfachheit der Bereitstellung verbessern. Hier ein Überblick über diese Innovationen:
Als Nächstes wollen wir uns diese Funktionen der nächsten Generation, die YOLO26 schneller, effizienter und einfacher zu implementieren machen, im Detail ansehen.
Frühere YOLO verwendeten während des Trainings Distribution Focal Loss (DFL), um die Genauigkeit der Begrenzungsrahmen zu verbessern. DFL war zwar effektiv, führte jedoch zu zusätzlicher Komplexität und erlegte feste Regressionsgrenzen auf, die den Export und die Bereitstellung erschwerten, insbesondere auf Edge- und Low-Power-Hardware.
YOLO26 entfernt DFL vollständig. Durch das Entfernen von DFL werden die in früheren Modellen vorhandenen festen Begrenzungsrahmen-Regressionsgrenzen beseitigt, wodurch die Zuverlässigkeit und Genauigkeit bei der Erkennung sehr großer Objekte verbessert wird.
Durch die Vereinfachung des Prozesses zur Vorhersage der Begrenzungsrahmen lässt sich YOLO26 leichter exportieren und läuft zuverlässiger auf einer Vielzahl von Edge- und Low-Power-Geräten.
Herkömmliche Pipelines zur Objekterkennung nutzen Non-Maximum Suppression (NMS) als Nachbearbeitungsschritt, um überlappende Vorhersagen zu filtern. NMS ist zwar effektiv, NMS jedoch die Latenz, Komplexität und Anfälligkeit, insbesondere bei der Bereitstellung von Modellen über mehrere Laufzeiten und Hardwareziele hinweg.
YOLO26 führt einen nativen End-to-End-Inferenzmodus ein, bei dem das Modell direkt endgültige Vorhersagen ausgibt, ohne dass NMS separater Nachbearbeitungsschritt erforderlich ist. Doppelte Vorhersagen werden innerhalb des Netzwerks selbst behandelt.
Durch die Eliminierung NMS Latenzen NMS , Bereitstellungspipelines vereinfacht und das Risiko von Integrationsfehlern verringert, wodurch sich YOLO26 besonders gut für Echtzeit- und Edge-Bereitstellungen eignet.
Ein entscheidendes Merkmal im Zusammenhang mit dem Training ist die Einführung von Progressive Loss Balancing (ProgLoss) und Small-Target-Aware Label Assignment (STAL). Diese verbesserten Verlustfunktionen tragen zur Stabilisierung des Trainings und zur Verbesserung der Erkennungsgenauigkeit bei.
ProgLoss hilft dem Modell, während des Trainings konsistenter zu lernen, reduziert Instabilität und ermöglicht eine reibungslosere Konvergenz. STAL konzentriert sich hingegen darauf, die Lernfähigkeit des Modells in Bezug auf kleine Objekte zu verbessern, die detect begrenzter visueller Details oft schwieriger zu detect sind.
Zusammen sorgen ProgLoss und STAL für zuverlässigere Erkennungen und spürbare Verbesserungen bei der Erkennung kleiner Objekte. Dies ist besonders wichtig für Randanwendungen wie das Internet der Dinge (IoT), Robotik und Luftbildaufnahmen, bei denen Objekte oft klein, weit entfernt oder nur teilweise sichtbar sind.
Mit YOLO26 haben wir einen neuen Optimierer namens MuSGD eingeführt, der das Training stabiler und effizienter machen soll. MuSGD ist ein hybrider Ansatz, der die Stärken des traditionellen stochastischen Gradientenabstiegs (SGD) mit Techniken kombiniert, die von Muon inspiriert sind, einem Optimierer, der beim Training großer Sprachmodelle (LLM) verwendet wird.
SGD aufgrund seiner Einfachheit und starken Generalisierbarkeit seit langem eine zuverlässige Wahl im Bereich der Bildverarbeitung. Gleichzeitig haben die jüngsten Fortschritte im LLM-Training gezeigt, dass neuere Optimierungsmethoden bei sorgfältiger Anwendung die Stabilität und Geschwindigkeit verbessern können. MuSGD bringt einige dieser Ideen in den Bereich der Bildverarbeitung ein.
Inspiriert von Kimi K2 von Moonshot AI enthält MuSGD Optimierungsstrategien, die dazu beitragen, dass das Modell während des Trainings reibungsloser konvergiert. Dadurch kann YOLO26 schneller eine starke Leistung erzielen und gleichzeitig die Instabilität des Trainings reduzieren, insbesondere bei größeren oder komplexeren Trainingskonfigurationen.
MuSGD hilft YOLO26 dabei, über verschiedene Modellgrößen hinweg vorhersehbarer zu trainieren, was sowohl zu Leistungssteigerungen als auch zu einer höheren Trainingsstabilität beiträgt.
Da Vision-KI immer näher an den Ort rückt, an dem Daten generiert werden, wird eine starke Edge-Leistung immer wichtiger. YOLO26 wurde speziell für Edge-Computing optimiert und bietet CPU um bis zu 43 % schnellere CPU , wodurch Echtzeitleistung auf Geräten ohne GPUs gewährleistet wird. Diese Verbesserung ermöglicht reaktionsschnelle, zuverlässige Bildverarbeitungssysteme, die direkt auf Kameras, Robotern und eingebetteter Hardware laufen, wo Latenz, Effizienz und Kostenbeschränkungen die Möglichkeiten bestimmen.
Neben architektonischen Verbesserungen, die die Objekterkennung genauer machen, enthält YOLO26 auch aufgabenspezifische Optimierungen, die die Leistung bei allen Computer-Vision-Aufgaben verbessern sollen. So verbessert es beispielsweise die Instanzsegmentierung, die Posenschätzung und die orientierte Begrenzungsrahmenerkennung durch gezielte Aktualisierungen, die die Genauigkeit und Zuverlässigkeit erhöhen.
Hier ist eine Übersicht über diese Optimierungen:

Ultralytics außerdem YOLOE-26 vor, eine neue Familie von Segmentierungsmodellen mit offenem Vokabular, die auf der Architektur und den Trainingsinnovationen von YOLO26 aufbauen.
YOLOE-26 ist keine neue Aufgabe oder Funktion, sondern eine spezialisierte Modellfamilie, die die bestehende Segmentierungsaufgabe wiederverwendet und gleichzeitig Text-Prompts, visuelle Prompts und Prompt-freie Inferenz ermöglicht. YOLOE-26 ist für alle YOLO verfügbar und bietet eine höhere Genauigkeit und zuverlässigere Leistung in der Praxis als frühere Segmentierungsmodelle mit offenem Vokabular.
Von bildverarbeitungsgesteuerten Kameras bis hin zu Robotern, die mit Computer Vision und winzigen Prozessorchips am Rand ausgestattet sind, werden Computer Vision und KI direkt auf dem Gerät für Echtzeit-Inferenzen eingesetzt. Ultralytics wurde speziell für diese Umgebungen entwickelt, in denen geringe Latenz, Effizienz und zuverlässige Leistung von entscheidender Bedeutung sind.
In der Praxis bedeutet dies, dass YOLO26 problemlos auf einer Vielzahl von Hardwareplattformen eingesetzt werden kann. Konkret können Modelle dank desPython und seiner vielfältigen Integrationsmöglichkeiten in Formate exportiert werden, die für verschiedene Plattformen und Hardwarebeschleuniger optimiert sind.
Beispielsweise TensorRT der Export nach TensorRT eine leistungsstarke Inferenz auf NVIDIA , während CoreML die native Bereitstellung auf Apple-Geräten CoreML und OpenVINO die Leistung auf Intel OpenVINO . YOLO26 kann auch für die Ausführung auf mehreren dedizierten Edge-Beschleunigern exportiert werden, was eine energieeffiziente Inferenz mit hohem Durchsatz auf spezialisierter Edge-AI-Hardware ermöglicht.
Dies sind nur einige Beispiele, denn es werden noch viele weitere Integrationen in Edge- und Produktionsumgebungen unterstützt. Dank dieser Flexibilität kann ein einziges YOLO26-Modell auf verschiedenen Bereitstellungszielen ausgeführt werden. Dies optimiert Produktionsabläufe und bringt Vision AI näher an den Edge.
YOLO26 wurde für den Einsatz in der Praxis entwickelt und kann in einer Vielzahl von Anwendungsfällen der Bildverarbeitung in verschiedenen Branchen eingesetzt werden. Hier sind einige Beispiele für Anwendungsbereiche:
Intelligente Städte: In städtischen Umgebungen kann YOLO26 Videostreams von Verkehrs- und öffentlichen Kameras analysieren. Dies ermöglicht Anwendungen wie Verkehrsüberwachung, öffentliche Sicherheit und Infrastrukturmanagement am Netzwerkrand.

Ultralytics kann über zwei sich ergänzende Workflows genutzt werden, je nachdem, wie Sie Vision-KI entwickeln und einsetzen.
Option 1: Verwenden Sie Ultralytics über die Ultralytics (empfohlen)
Die Ultralytics bietet eine zentralisierte Möglichkeit zum Trainieren, Bereitstellen und Überwachen von YOLO26-Modellen in der Produktion. Sie vereint Datensätze, Experimente und Bereitstellungen an einem Ort und erleichtert so die Verwaltung von Vision-AI-Workflows in großem Maßstab, insbesondere für Teams, die in Edge- und Produktionsumgebungen bereitstellen.
Über die Plattform können Nutzer:
👉 Entdecken Sie YOLO26 auf der Ultralytics : platform.ultralytics.ultralytics
Option 2: Verwenden Sie Ultralytics über Open-Source-Workflows.
YOLO26 bleibt über das Open-Source-Ökosystem Ultralyticsvollständig zugänglich und kann mit bestehenden Python Workflows für Training, Inferenz und Export verwendet werden.
Entwickler können das Ultralytics installieren, vortrainierte YOLO26-Modelle laden und diese mit vertrauten Tools und Formaten wie ONNX, TensorRT, CoreML oder OpenVINO bereitstellen.
pip install ultralyticsfrom ultralytics import YOLO
# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")Für Benutzer, die eine manuelle Steuerung oder benutzerdefinierte Pipelines bevorzugen, stehen in den Ultralytics umfassende Dokumentationen und Anleitungen zur Verfügung.
Ultralytics wurde entwickelt, um den Anforderungen der Vision-KI-Lösungen von morgen gerecht zu werden, bei denen Modelle schnell, effizient und einfach auf realer Hardware einsetzbar sein müssen. Durch die Verbesserung der Leistung, die Vereinfachung der Bereitstellung und die Erweiterung der Möglichkeiten des Modells fügt sich YOLO26 nahtlos in eine Vielzahl von realen Anwendungen ein. YOLO26 setzt neue Maßstäbe für die Entwicklung, Bereitstellung und Skalierung von Vision-KI. Wir sind gespannt, wie die Community es für die Bereitstellung realer Computer-Vision-Systeme einsetzen wird.
Schließen Sie sich unserer wachsenden Community an und erkunden Sie unser GitHub-Repository für praktische KI-Ressourcen. Um noch heute mit Vision AI zu arbeiten, erkunden Sie unsere Lizenzierungsoptionen. Erfahren Sie, wie KI in der Landwirtschaft die Landwirtschaft verändert und wie Vision AI in der Robotik die Zukunft gestaltet, indem Sie unsere Lösungsseiten besuchen.