Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Ultralytics vs. YOLO11 YOLOv8: Welches Modell sollten Sie verwenden?

Vergleichen Sie Ultralytics , Ultralytics YOLO11 Ultralytics YOLOv8 finden Sie heraus, welches Computer-Vision-Modell Sie für Ihre Projekte wählen sollten.

Skalieren Sie Ihre Computer-Vision-Projekte mit Ultralytics

Loslegen

Modernste Computer-Vision-Systeme, die häufig auf konvolutionellen neuronalen Netzen (CNNs) basieren, ermöglichen es Maschinen, visuelle Daten aus Bildern und Videos zu analysieren und zu interpretieren, und werden mittlerweile in einer Vielzahl von Umgebungen eingesetzt. 

Von der Landwirtschaft über die Fertigung bis hin zum Einzelhandel kommen diese Systeme in einer Vielzahl von Einsatzumgebungen zum Einsatz, darunter Edge-Geräte, eingebettete Hardware, IoT-Geräte (Internet of Things), geräteinterne Verarbeitung sowie groß angelegte Cloud-Pipelines, die Echtzeitanwendungen unterstützen.

In der Praxis ist die Implementierung dieser Modelle nicht immer einfach. Oft müssen sie mit begrenzten Rechenressourcen laufen, strenge Latenzanforderungen erfüllen und skalierbar sein, ohne dass die Kosten dabei wesentlich steigen. Diese Einschränkungen machen die Leistung zu einem vielschichtigen Problem, bei dem es nicht mehr nur um die Genauigkeit geht.

Zwar ist Genauigkeit nach wie vor wichtig, doch ist es ebenso wichtig, dass ein Modell im Produktivbetrieb effizient läuft. Faktoren wie Geschwindigkeit, Ressourcenverbrauch und Skalierbarkeit spielen eine große Rolle dabei, wie gut ein System auf Dauer funktioniert.

Computer-Vision-Modelle wie YOLO Ultralytics wurden unter Berücksichtigung dieses Gleichgewichts entwickelt. Zum Beispiel Ultralytics YOLOv8 eine starke und vielseitige Grundlage geschaffen, Ultralytics YOLO11 ging mit verbesserter Geschwindigkeit und Genauigkeit noch einen Schritt weiter, und Ultralytics baut darauf auf, indem es leichter, schneller und effizienter ist als je zuvor.

Abb. 1: detect von detect in einem Bild mit Ultralytics (Quelle)

In diesem Artikel vergleichen wir Ultralytics , YOLO11 YOLOv8 Ihnen bei der Auswahl des richtigen Modells für Ihr Computer-Vision-Projekt zu helfen. Los geht’s!

Einblick in die EntwicklungYOLO Ultralytics

Mit jeder neuen VersionYOLO Ultralytics wurden Verbesserungen eingeführt, um den Anforderungen der Praxis besser gerecht zu werden und Computer Vision zugänglicher zu machen. Diese Aktualisierungen haben die Modelle schneller, effizienter und einfacher zu implementieren gemacht und tragen so zum Wachstum des Ökosystems der Bildverarbeitungs-KI bei. 

Sie basieren zudem auf PyTorch, wodurch sie sich leicht trainieren, anpassen und in intelligente Machine-Learning-Workflows integrieren lassen.YOLO Ultralytics sind standardmäßig als vortrainierte Modelle verfügbar, die häufig auf Datensätzen wie dem COCO trainiert wurden. So können Teams schnell loslegen und die Modelle für spezifische Anwendungsfälle feinabstimmen.

Darüber hinaus vereinfacht das Python Ultralytics die Bereitstellung durch integrierte Unterstützung für den Export von Modellen in Formate wie ONNX TensorRT. Dies erleichtert die Integration von Modellen auf verschiedenen Hardwareplattformen, von Edge-Geräten bis hin zu GPU Systemen.

Wechsel von Ultralytics YOLOv5 Ultralytics

Das ersteYOLO Ultralytics , Ultralytics YOLOv5, wurde aufgrund seiner zuverlässigen Objekterkennungsfähigkeiten sehr beliebt. Basierend auf einem einstufigen Erkennungsansatz ermöglichte es schnelle Echtzeit-Vorhersagen in einem einzigen Durchlauf, wodurch es sich gut für Produktionsworkflows eignet. 

Spätere Aktualisierungen führten ankerfreie Varianten ein, bei denen das Modell die Positionen von Objekten direkt vorhersagt, anstatt vordefinierte Ankerrahmen zu verwenden, wodurch die Erkennung flexibler wurde. Das ursprüngliche Modell konzentrierte sich jedoch weiterhin in erster Linie auf Objekterkennungsaufgaben.

Auf dieser Grundlage YOLOv8 den Anwendungsbereich der Modellfamilie. Anstatt sich ausschließlich auf die Objekterkennung zu konzentrieren, wurde die Unterstützung für verschiedene Aufgaben im Bereich der Bildverarbeitung hinzugefügt, darunter Instanzsegmentierung, Bildklassifizierung, Posenabschätzung und die Erkennung orientierter Begrenzungsrahmen (OBB). Zudem wurden architektonische Verbesserungen vorgenommen, darunter fortschrittliche Backbone- und Neck-Designs, die die Merkmalsextraktion und die allgemeine Erkennungsleistung verbesserten. 

Darüber hinaus boten Varianten wie YOLOv8n Nano), YOLOv8s Small), YOLOv8m Medium), YOLOv8l Large) und YOLOv8x Extra Large) Entwicklern die Flexibilität, Geschwindigkeit, Genauigkeit und Ressourcenverbrauch je nach Bedarf aufeinander abzustimmen. Diese erweiterten Funktionen in Verbindung mit der einfachen Handhabung machten das Modell zur ersten Wahl für eine Vielzahl von Bildverarbeitungsanwendungen.

Abb. 2: YOLO wie YOLOv8, YOLO11 und YOLO26 unterstützen eine Vielzahl von Bildverarbeitungsaufgaben.

Anschließend YOLO11 darauf, die Leistung in realen Arbeitsabläufen zu verbessern und dabei eine höhere Genauigkeit bei gleichzeitig schnelleren Inferenzgeschwindigkeiten zu erzielen. Dank einer schlankeren Architektur funktioniert es sowohl in Edge- als auch in Cloud-Umgebungen gut und ist zudem mit bestehenden YOLOv8 kompatibel.

Das neueste Mitglied der Ultralytics YOLO , YOLO26, ist ein hochmodernes Modell, das neue Maßstäbe für Edge-First-Vision-KI setzt und einen schlankeren, schnelleren und effizienteren Ansatz für den Einsatz in der Praxis bietet. Es ist darauf ausgelegt, effizient auf CPUs und eingebetteten Systemen zu laufen, während es gleichzeitig die Bereitstellung vereinfacht und die Echtzeitleistung in einer Vielzahl von Anwendungsbereichen verbessert.

Vergleich zwischen YOLO26, YOLO11 YOLOv8

Wenn Sie an Projekten im Bereich Computer Vision arbeiten, stoßen Sie vielleicht auf verschiedene Ultralytics und fragen sich, welches davon für Ihr Projekt das richtige ist. Schauen wir uns einmal an, wie YOLOv8 YOLO26, YOLO11 YOLOv8 in der Praxis YOLOv8 .

YOLOv8 2023 veröffentlicht und wird seitdem in der Computer-Vision-Community weitläufig genutzt. Dank der starken Unterstützung durch die Community und seiner einfachen Handhabung war es in der Vergangenheit für viele Teams das Modell der Wahl. Wenn Sie auf der Suche nach einem gut dokumentierten Modell mit einer Vielzahl von Tutorials, Anleitungen und Community-Ressourcen sind, YOLOv8 ein hervorragender Ausgangspunkt.

Im Jahr 2024 YOLO11 mit Verbesserungen sowohl hinsichtlich der Leistung als auch der Effizienz eingeführt. Es bietet im Vergleich zu YOLOv8 eine höhere Geschwindigkeit und Genauigkeit und verfügt gleichzeitig über eine kompaktere und optimierte Architektur. Es handelt sich um ein ausgewogeneres Modell, das im produktiven Einsatz zuverlässig funktioniert, ohne den Ressourcenverbrauch nennenswert zu erhöhen. 

In diesem Jahr wurde YOLO26 als neueste Version veröffentlicht, deren Schwerpunkt auf einer effizienten Bereitstellung in großem Maßstab liegt. Sie bietet CPU schnellere CPU und eine verbesserte Ressourcenauslastung, sodass Teams mehr Workloads auf derselben Hardware ausführen können. 

So kann das YOLO26-Nano-Modell YOLO11 Zentralprozessoren (CPU) eine bis zu 43 % schnellere Inferenzleistung erzielen als YOLO11 , was es zu einer hervorragenden Option für Edge-Umgebungen und Umgebungen mit begrenzten Ressourcen macht. Dies ist besonders wichtig, da herkömmliche Konfigurationen oft stark auf Grafikprozessoren (GPUs) angewiesen sind, die kostspielig und schwerer zu skalieren sein können. 

Abb. 3: Vergleich der Leistung von YOLO26 auf CPUs (Quelle)

Insgesamt ist YOLO26 eine gute Wahl für Teams und Einzelpersonen, die das Verhältnis zwischen Leistung, Kosten und Skalierbarkeit optimieren möchten.

Ein genauerer Blick auf Ultralytics

YOLO26 ist ein hochmodernes Modell, das für den Einsatz in der Praxis entwickelt wurde, wo Effizienz, Geschwindigkeit und Skalierbarkeit ebenso wichtig sind wie Genauigkeit. Anstatt sich ausschließlich auf die Verbesserung der Benchmark-Leistung zu konzentrieren, führt es Änderungen an der Architektur und am Trainingsverfahren ein, die die Ausführung der Modelle vereinfachen, die Bereitstellung beschleunigen und die Zuverlässigkeit in verschiedenen Hardwareumgebungen erhöhen.

Diese Verbesserungen sind besonders wichtig für Edge- und Produktionssysteme, bei denen begrenzte Rechenleistung, Latenzbeschränkungen und Kostenaspekte eine entscheidende Rolle spielen. Durch die Vereinfachung der Inferenz und die Optimierung der Leistung ermöglicht YOLO26 KI-Enthusiasten, Bildverarbeitungsanwendungen effizienter zu entwickeln und zu skalieren.

Hier ein genauerer Blick auf einige der wichtigsten Funktionen von YOLO26:

  • End-to-End-Inferenz NMS Non-Maximum Suppression (NMS): Eine der entscheidenden Neuerungen ist das NMS-freie Design, wodurch eine Nachbearbeitung überflüssig wird. Einfach ausgedrückt: Das Modell liefert direkt die endgültigen Vorhersagen. Dadurch wird die Latenz besser vorhersehbar und die Bereitstellung vereinfacht.
  • ‍Verzicht auf DFL: YOLO26 verzichtet auf das Distribution Focal Loss (DFL)-Modul und setzt stattdessen auf einen einfacheren Ansatz zur Vorhersage von Begrenzungsrahmen. Diese Änderung steht im Einklang mit dem durchgängigen, NMS Design, wodurch die Komplexität der Pipeline verringert und die Konsistenz bei der Bereitstellung verbessert wird.
  • ‍MuSGD-Optimierer: Die neuestenYOLO Ultralytics führen MuSGD ein, einen hybriden Optimierer, der stochastisches Gradientenabstiegsverfahren (SGD) mit von Myonen inspirierten Aktualisierungen kombiniert. Dies verbessert die Trainingsstabilität und Konvergenz, was zu einer reibungsloseren Optimierung und einem konsistenteren Verhalten bei verschiedenen Modellgrößen führt.
  • ‍ProgLoss und STAL: Diese Trainingsinnovationen – Progressive Loss Balancing (ProgLoss) und Small-Target-Aware Label Assignment (STAL) – machen das Modell stabiler und zuverlässiger. ProgLoss hilft dem Modell, schrittweise und über einen längeren Zeitraum hinweg aus Datensätzen zu lernen, während STAL dafür sorgt, dass kleine Objekte während des Trainings nicht übersehen werden, was die Erkennung in komplexen Szenen verbessert.

Genauigkeit vs. Effizienz: Über Benchmarks hinaus zur Leistung in der Praxis

Um die Unterschiede zwischen YOLO26, YOLO11 und YOLOv8 , wollen wir uns zunächst ein klareres Bild von den Faktoren verschaffen, die die Modellleistung im praktischen Einsatz beeinflussen.

Die Genauigkeit, die häufig anhand von Leistungskennzahlen wie der mittleren durchschnittlichen Präzision (mAP) gemessen wird, ist seit langem ein wichtiges Kriterium zur Bewertung von Modellen der Bildverarbeitung. Sie gibt Aufschluss darüber, wie gut ein Modell unter standardisierten Bedingungen abschneidet, und ist beim Vergleich verschiedener Versionen hilfreich.

Sobald Modelle jedoch von der Testphase in den praktischen Einsatz übergehen, reicht Genauigkeit allein nicht mehr aus. Die Leistung im Produktivbetrieb hängt von Faktoren wie Modellgröße, Inferenzzeit oder Latenz, Rechenauslastung und der Skalierbarkeit des Systems in verschiedenen Umgebungen ab.

Im Gegensatz zu kontrollierten Benchmarks sind reale Umgebungen oft unvorhersehbar. Die Lichtverhältnisse können sich ändern, Objekte sind möglicherweise nur teilweise sichtbar, und die Eingabedaten können erheblich von den Daten abweichen, mit denen das Modell trainiert wurde. Diese Abweichungen können sich darauf auswirken, wie konsistent ein Modell in der Praxis funktioniert.

Abb. 4: Ein Beispiel für den Einsatz von YOLO26 in einer unvorhersehbaren Umgebung, wie beispielsweise auf einer Baustelle. 

Nehmen wir zum Beispiel eine Anlage mit Hunderten von Kameras in einer Smart City, einem Einzelhandelsgeschäft oder einem Lagerhaus. Jeder Videostream muss in Echtzeit verarbeitet werden, was oft konstante Bildraten (Bilder pro Sekunde, kurz FPS) erfordert, um Verzögerungen oder Bildausfälle zu vermeiden. 

Ein weniger effizientes Modell kann auf einem bestimmten System weniger gleichzeitige Streams verarbeiten, was bedeutet, dass für die Skalierung in der Regel zusätzliche Hardware erforderlich ist und die Infrastrukturkosten steigen.

Effizientere Modelle wie YOLO26 können auf derselben Hardware mehr Datenströme verarbeiten und so die verfügbaren Ressourcen besser nutzen. Dies verbessert die Gesamteffizienz des Systems und erleichtert die Skalierung der Bereitstellung im Laufe der Zeit.

Wenn du dich näher mit YOLO26, YOLO11 YOLOv8 befassen möchtest, schau dir die offizielle Ultralytics an.

Wesentliche Erkenntnisse 

DieYOLO wurde weiterentwickelt, um den Anforderungen des praktischen Einsatzes besser gerecht zu werden. Jede Version baut auf der Vorgängerin auf, wobei der Fokus zunehmend auf Effizienz, Skalierbarkeit und einfacher Implementierung liegt. Mit anderen Worten: Wenn Sie eine Echtzeit-Erkennungsanwendung entwickeln, die zuverlässig in großem Maßstab laufen muss, ist Ultralytics die perfekte Wahl.

Möchten Sie Bildverarbeitungs-KI in Ihren Betrieb integrieren? Informieren Sie sich über unsere Lizenzoptionen. Besuchen Sie auch unsere Lösungsseiten, um zu erfahren, wie KI in der Fertigung Fabriken verändert und wie Bildverarbeitungs-KI in der Robotik die Zukunft prägt. Werden Sie Teil unserer wachsenden Community und entdecken Sie unser GitHub-Repository mit KI-Ressourcen. 

Lassen Sie uns gemeinsam die Zukunft der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens