Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024

Nahtlose Bereitstellung von Ultralytics YOLO11 mit OpenVINO™

Abirami Vina

5 Min. Lesezeit

1. Juli 2025

Erfahren Sie, wie der Export von Ultralytics YOLO11 in das OpenVINO™-Format eine blitzschnelle Inferenz auf Intel®-Hardware ermöglicht und so Geschwindigkeit, Skalierbarkeit und Genauigkeit verbessert.

Die Einführung von KI hängt davon ab, dass KI-Lösungen zugänglich sind, und ein großer Teil davon besteht darin, sie einfach auf der Hardware bereitzustellen, die die Leute bereits haben. Das Ausführen von KI-Modellen auf GPUs (Graphics Processing Units) ist eine großartige Option in Bezug auf Leistung und parallele Verarbeitungskraft. 

Die Realität sieht jedoch so aus, dass nicht jeder Zugang zu High-End-GPUs hat, insbesondere in Edge-Umgebungen oder auf alltäglichen Laptops. Deshalb ist es so wichtig, Modelle so zu optimieren, dass sie effizient auf weit verbreiteteren Hardware wie Central Processing Units (CPUs), integrierten GPUs und Neural Processing Units (NPUs) laufen.

Computer Vision ist beispielsweise ein Zweig der KI, der es Maschinen ermöglicht, Bilder und Videostreams in Echtzeit zu analysieren und zu verstehen. Vision-KI-Modelle wie Ultralytics YOLO11 unterstützen wichtige Aufgaben wie Objekterkennung und Instanzsegmentierung, die Anwendungen von Einzelhandelsanalysen bis hin zu medizinischer Diagnostik ermöglichen.

Abb. 1. Verwendung von Ultralytics YOLO11 zur Erkennung und Segmentierung von Objekten in einem Einzelhandelsgeschäft.

Um Computer Vision einem breiteren Publikum zugänglich zu machen, hat Ultralytics eine aktualisierte Integration mit dem OpenVINO-Toolkit veröffentlicht, einem Open-Source-Projekt zur Optimierung und Ausführung von KI-Inferenz auf CPUs, GPUs und NPUs. 

Mit dieser Integration ist es einfacher, YOLO11-Modelle zu exportieren und bereitzustellen, mit bis zu 3-fach schnellerer Inferenz auf CPUs und beschleunigter Leistung auf Intel-GPUs und -NPUs. In diesem Artikel werden wir durchgehen, wie Sie das Ultralytics Python-Paket verwenden, um YOLO11-Modelle in das OpenVINO-Format zu exportieren und es für die Inferenz zu verwenden. Lass uns anfangen!

Ein Überblick über Ultralytics YOLO11

Bevor wir uns mit den Details der von Ultralytics unterstützten OpenVINO-Integration befassen, wollen wir uns genauer ansehen, was YOLO11 zu einem zuverlässigen und wirkungsvollen Computer-Vision-Modell macht. YOLO11 ist das neueste Modell der Ultralytics YOLO-Serie und bietet deutliche Verbesserungen in Bezug auf Geschwindigkeit und Genauigkeit. 

Einer der wichtigsten Vorteile ist die Effizienz. Zum Beispiel hat Ultralytics YOLO11m 22 % weniger Parameter als Ultralytics YOLOv8m, erreicht aber eine höhere mittlere durchschnittliche Präzision (mAP) auf dem COCO-Datensatz. Das bedeutet, dass es schneller läuft und auch Objekte genauer erkennt, was es ideal für Echtzeitanwendungen macht, bei denen Leistung und Reaktionsfähigkeit entscheidend sind.

Abb. 2. Ultralytics YOLO11’s Performance-Benchmarks.

Über die Objekterkennung hinaus unterstützt YOLO11 verschiedene fortschrittliche Computer Vision Aufgaben, wie z. B. Instanzsegmentierung, Pose-Schätzung, Bildklassifizierung, Objektverfolgung und Erkennung von orientierten Bounding Boxes. YOLO11 ist zudem entwicklerfreundlich, da das Ultralytics Python-Paket eine einfache und konsistente Schnittstelle für das Trainieren, Evaluieren und Bereitstellen von Modellen bietet. 

Darüber hinaus unterstützt das Ultralytics Python-Paket verschiedene Integrationen und mehrere Exportformate, darunter OpenVINO, ONNX, TorchScript, sodass Sie YOLO11 problemlos in verschiedene Deployment-Pipelines integrieren können. Ob Sie nun Cloud-Infrastrukturen, Edge-Geräte oder eingebettete Systeme anvisieren, der Exportprozess ist unkompliziert und an Ihre Hardwareanforderungen anpassbar.

Was ist OpenVINO™?

OpenVINO™ (Open Visual Inference and Neural Network Optimization) ist ein Open-Source-Toolkit zur Optimierung und Bereitstellung von KI-Inferenz auf einer Vielzahl von Hardware. Es ermöglicht Entwicklern, hochleistungsfähige Inferenzanwendungen effizient auf verschiedenen Intel-Plattformen auszuführen, darunter CPUs, integrierte und diskrete GPUs, NPUs und Field-Programmable Gate Arrays (FPGAs).

OpenVINO bietet eine einheitliche Laufzeitschnittstelle, die Hardwareunterschiede durch gerätespezifische Plugins abstrahiert. Das bedeutet, dass Entwickler Code einmal schreiben und ihn mit einer konsistenten API auf verschiedenen Intel-Hardwarezielen bereitstellen können. 

Hier sind einige der wichtigsten Funktionen, die OpenVINO zu einer guten Wahl für die Bereitstellung machen:

  • Modellkonverter: Dieses Tool konvertiert und bereitet Modelle von beliebten Frameworks wie PyTorch, ONNX, TensorFlow, PaddlePaddle und anderen vor, sodass sie für eine effiziente Inferenz auf Intel-Hardware optimiert werden können.
  • Heterogene Ausführung: Sie müssen Ihren Code nicht für verschiedene Intel-Hardware umschreiben. OpenVINO macht es einfach, dasselbe Modell auf jeder unterstützten Hardware auszuführen, von CPUs bis GPUs.
  • Unterstützung der Quantisierung: Das Toolkit unterstützt Formate mit reduzierter Präzision wie FP16 (Standard) und INT8, die dazu beitragen, die Modellgröße zu verringern und die Inferenz zu beschleunigen, ohne die Genauigkeit wesentlich zu beeinträchtigen.
Abb. 3. OpenVINO ermöglicht vielfältige Einsatzmöglichkeiten.

Erkundung der Ultralytics x OpenVINO Integration

Nachdem wir nun untersucht haben, was OpenVINO ist und welche Bedeutung es hat, wollen wir erörtern, wie man YOLO11-Modelle in das OpenVINO-Format exportiert und eine effiziente Inferenz auf Intel-Hardware ausführt.

Schritt 1: Installieren Sie das Ultralytics Python-Paket

Um ein Modell in das OpenVINO-Format zu exportieren, müssen Sie zuerst das Ultralytics Python-Paket installieren. Dieses Paket bietet alles, was Sie zum Trainieren, Evaluieren und Exportieren von YOLO-Modellen benötigen, einschließlich YOLO11. 

Sie können es installieren, indem Sie den Befehl "pip install ultralytics" in Ihrem Terminal oder Ihrer Eingabeaufforderung ausführen. Wenn Sie in einer interaktiven Umgebung wie Jupyter Notebook oder Google Colab arbeiten, fügen Sie einfach ein Ausrufezeichen vor dem Befehl hinzu. 

Sollten Sie während der Installation oder beim Exportieren auf Probleme stoßen, sind die Ultralytics-Dokumentation und die Fehlerbehebungsanleitungen eine gute Hilfe, um wieder auf den richtigen Weg zu kommen.

Schritt 2: Exportieren Sie Ihr YOLO11-Modell in das OpenVINO-Format

Sobald das Ultralytics-Paket eingerichtet ist, besteht der nächste Schritt darin, Ihr YOLO11-Modell zu laden und in ein mit OpenVINO kompatibles Format zu konvertieren. 

Im folgenden Beispiel verwenden wir ein vortrainiertes YOLO11-Modell („yolo11n.pt“). Die Exportfunktion wird verwendet, um es in das OpenVINO-Format zu konvertieren. Nach dem Ausführen dieses Codes wird das konvertierte Modell in einem neuen Verzeichnis namens „yolo11n_openvino_model“ gespeichert.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

Schritt 3: Inferenz mit dem exportierten Modell ausführen

Sobald Ihr YOLO11-Modell in das OpenVINO-Format exportiert wurde, können Sie Inferenz auf zwei Arten durchführen: mit dem Ultralytics Python-Paket oder der nativen OpenVINO Runtime.

Verwendung des Ultralytics Python-Pakets

Das exportierte YOLO11-Modell kann einfach mit dem Ultralytics Python-Paket bereitgestellt werden, wie im folgenden Code-Snippet gezeigt. Diese Methode ist ideal für schnelle Experimente und eine optimierte Bereitstellung auf Intel-Hardware. 

Sie können auch festlegen, welches Gerät für die Inferenz verwendet werden soll, z. B. "intel:cpu", "intel:gpu" oder "intel:npu", abhängig von der auf Ihrem System verfügbaren Intel-Hardware.

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

Nach Ausführung des obigen Codes wird das Ausgabebild im Verzeichnis „runs/detect/predict“ gespeichert.

Abb. 4. Verwendung des exportierten YOLO11-Modells zur Erkennung von Objekten in einem Bild.

Verwendung der nativen OpenVINO-Runtime

Wenn Sie nach einer anpassbaren Möglichkeit suchen, Inferenz auszuführen, insbesondere in Produktionsumgebungen, bietet Ihnen die OpenVINO Runtime mehr Kontrolle darüber, wie Ihr Modell ausgeführt wird. Sie unterstützt erweiterte Funktionen wie asynchrone Ausführung (paralleles Ausführen mehrerer Inferenzanfragen) und Load Balancing (effizientes Verteilen von Inferenz-Workloads auf Intel-Hardware).

Um die native Laufzeitumgebung zu nutzen, benötigen Sie die exportierten Modelldateien: eine .xml-Datei (die die Netzwerkarchitektur definiert) und eine .bin-Datei (die die trainierten Gewichte des Modells speichert). Sie können auch zusätzliche Parameter wie Eingabedimensionen oder Vorverarbeitungsschritte konfigurieren, abhängig von Ihrer Anwendung.

Ein typischer Deployment-Ablauf umfasst das Initialisieren des OpenVINO-Kerns, das Laden und Kompilieren des Modells für ein Zielgerät, das Vorbereiten der Eingabe und das Ausführen der Inferenz. Detaillierte Beispiele und eine schrittweise Anleitung finden Sie in der offiziellen Ultralytics OpenVINO-Dokumentation.

Warum die Ultralytics x OpenVINO Integration wählen?

Bei der Erkundung von Ultralytics-Integrationen werden Sie feststellen, dass das Ultralytics Python-Paket den Export von YOLO11-Modellen in eine Vielzahl von Formaten wie TorchScript, CoreML, TensorRT und ONNX unterstützt. Warum also die OpenVINO-Integration wählen?

Hier sind einige Gründe, warum das OpenVINO-Exportformat sich hervorragend für die Bereitstellung von Modellen auf Intel-Hardware eignet:

  • Leistungssteigerung: Sie können bis zu einer 3-fach schnelleren Inferenz auf Intel-CPUs erleben, mit zusätzlicher Beschleunigung auf integrierten GPUs und NPUs.
  • Kein erneutes Training erforderlich: Sie können Ihre bestehenden YOLO11-Modelle direkt in das OpenVINO-Format exportieren, ohne sie zu modifizieren oder neu zu trainieren.
  • Für Skalierung entwickelt: Dasselbe exportierte Modell kann auf Edge-Geräten mit geringem Stromverbrauch und in grossflächigen Cloud-Infrastrukturen eingesetzt werden, was die skalierbare KI-Bereitstellung vereinfacht.

Sie können die Performance-Benchmarks für das YOLO11-Modell auf einer Reihe von Intel®-Plattformen im OpenVINO™ Model Hub evaluieren. Der OpenVINO Model Hub ist eine Ressource für Entwickler, um KI-Modelle auf Intel-Hardware zu evaluieren und den Performance-Vorteil von OpenVINO auf Intel-CPUs, integrierten GPUs, NPUs und diskreten Grafikkarten zu entdecken. 

Abb. 5. OpenVINO™ Model Hub: Performance-Benchmarks für das YOLO11-Modell auf einer Reihe von Intel®-Plattformen.

Anwendungen von YOLO11 und dem OpenVINO-Exportformat

Mithilfe der OpenVINO-Integration wird die Bereitstellung von YOLO11-Modellen auf Intel-Hardware in realen Situationen erheblich vereinfacht. 

Ein gutes Beispiel ist der intelligente Einzelhandel, bei dem YOLOv8 helfen kann, leere Regale in Echtzeit zu erkennen, zu verfolgen, welche Produkte zur Neige gehen, und zu analysieren, wie sich Kunden durch das Geschäft bewegen. Dies ermöglicht es Einzelhändlern, die Bestandsverwaltung zu verbessern und die Ladenlayouts für ein besseres Kundenengagement zu optimieren.

In Smart Cities kann YOLO11 ebenfalls zur Verkehrsüberwachung eingesetzt werden, indem es Fahrzeuge zählt, Fußgänger verfolgt und Rotlichtverstöße in Echtzeit erkennt. Diese Erkenntnisse können die Optimierung des Verkehrsflusses unterstützen, die Verkehrssicherheit verbessern und bei automatisierten Überwachungssystemen helfen.

Abb. 6. Zählen von Fahrzeugen mit YOLO11.

Ein weiteres interessantes Anwendungsbeispiel ist die industrielle Inspektion, bei der YOLO11 auf Produktionslinien eingesetzt werden kann, um visuelle Fehler wie fehlende Komponenten, Fehlausrichtungen oder Oberflächenschäden automatisch zu erkennen. Dies steigert die Effizienz, senkt die Kosten und unterstützt eine bessere Produktqualität.

Wichtige Faktoren bei der Verwendung des OpenVINO-Toolkits

Hier sind ein paar wichtige Punkte, die Sie bei der Bereitstellung von YOLO11-Modellen mit OpenVINO beachten sollten, um die besten Ergebnisse zu erzielen:

  • Hardware-Kompatibilität prüfen: Stellen Sie sicher, dass Ihre Intel-Hardware, sei es eine CPU, eine integrierte GPU oder eine NPU, von OpenVINO unterstützt wird, damit das Modell effizient ausgeführt werden kann.

  • Installieren Sie die richtigen Treiber: Wenn Sie Intel-GPUs oder -NPUs verwenden, überprüfen Sie doppelt, ob alle erforderlichen Treiber ordnungsgemäß installiert und auf dem neuesten Stand sind.

  • Verständnis der Präzisions-Kompromisse: OpenVINO unterstützt die Modellpräzisionen FP32, FP16 und INT8. Jede davon bringt einen Kompromiss zwischen Geschwindigkeit und Genauigkeit mit sich, daher ist es wichtig, die richtige Option basierend auf Ihren Leistungszielen und der verfügbaren Hardware auszuwählen.

Wesentliche Erkenntnisse

Der Export von Ultralytics YOLOv8 in das OpenVINO-Format macht es einfach, schnelle und effiziente Vision AI-Modelle auf Intel-Hardware auszuführen. Sie können diese auf CPUs, GPUs und NPUs bereitstellen, ohne Ihr Modell neu trainieren oder Ihren Code ändern zu müssen. Dies ist eine hervorragende Möglichkeit, die Leistung zu steigern und gleichzeitig die Dinge einfach und skalierbar zu halten.

Mit der in das Ultralytics Python-Paket integrierten Unterstützung ist das Exportieren und Ausführen von Inferenz mit OpenVINO unkompliziert. In nur wenigen Schritten können Sie Ihr Modell optimieren und es auf einer Vielzahl von Intel-Plattformen ausführen. Egal, ob Sie an intelligentem Einzelhandel, Verkehrsüberwachung oder industrieller Inspektion arbeiten, dieser Workflow hilft Ihnen, schnell und sicher von der Entwicklung zur Bereitstellung zu gelangen.

Treten Sie der YOLO-Community bei und sehen Sie sich das Ultralytics GitHub-Repository an, um mehr über die wirkungsvollen Integrationen zu erfahren, die von Ultralytics unterstützt werden. Werfen Sie auch einen Blick auf die Ultralytics-Lizenzoptionen, um noch heute mit Computer Vision zu beginnen!

Melden Sie sich für unser kommendes Webinar an, um die Ultralytics × OpenVINO-Integration in Aktion zu sehen, und besuchen Sie die OpenVINO-Website, um Tools zur Optimierung und Bereitstellung von KI in großem Maßstab zu erkunden.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert