Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Einsatz von Ultralytics YOLO-Modellen unter Verwendung der ExecuTorch-Integration

Abirami Vina

5 Min. Lesezeit

November 4, 2025

Erfahren Sie, wie Sie Ultralytics YOLO-Modelle wie Ultralytics YOLO11 in das ExecuTorch-Format exportieren, um eine effiziente, PyTorch-native Bereitstellung auf Edge- und Mobilgeräten zu ermöglichen.

Bestimmte Bildverarbeitungsanwendungen wie automatische Qualitätsprüfungen, autonome Drohnen oder intelligente Sicherheitssysteme funktionieren am besten, wenn Ultralytics YOLO-Modelle wie Ultralytics YOLO11 in der Nähe des Sensors laufen, der die Bilder erfasst. Mit anderen Worten: Diese Modelle müssen die Daten direkt dort verarbeiten, wo sie erzeugt werden, also auf Kameras, Drohnen oder eingebetteten Systemen, anstatt sie in die Cloud zu schicken. 

Dieser Ansatz, der als Edge AI bezeichnet wird, ermöglicht es Modellen, Schlussfolgerungen direkt auf dem Gerät durchzuführen, auf dem die Daten erfasst werden. Durch die lokale Verarbeitung von Informationen anstelle von Remote-Servern können Systeme eine geringere Latenzzeit, einen besseren Datenschutz und eine höhere Zuverlässigkeit erreichen, selbst in Umgebungen mit begrenzter oder fehlender Internetverbindung.

Eine Fertigungskamera, die jede Minute Tausende von Produkten prüft, oder eine Drohne, die in komplexen Umgebungen navigiert, kann sich beispielsweise keine Verzögerungen leisten, die mit der Cloud-Verarbeitung einhergehen. Die Ausführung von YOLO11 direkt auf dem Gerät ermöglicht eine sofortige Inferenz auf dem Gerät.

Um die Ausführung von Ultralytics YOLO-Modellen auf dem Edge einfacher und effizienter zu machen, bietet die neue von Ultralytics unterstützte ExecuTorch-Integration eine optimierte Möglichkeit, Modelle direkt auf mobile und eingebettete Geräte zu exportieren und bereitzustellen. ExecuTorch ist Teil des PyTorch-Edge-Ökosystems und bietet eine End-to-End-Lösung für die Ausführung von KI-Modellen direkt auf mobiler und Edge-Hardware, einschließlich Telefonen, Wearables, Embedded Boards und Mikrocontrollern.

Diese Integration macht es einfach, ein Ultralytics YOLO-Modell, wie YOLO11, vom Training bis zum Einsatz auf Edge-Geräten zu bringen. Durch die Kombination der Bildverarbeitungsfunktionen von YOLO11 mit der leichtgewichtigen Laufzeit von ExecuTorch und der PyTorch-Exportpipeline können Benutzer Modelle bereitstellen, die effizient auf Edge-Hardware laufen und gleichzeitig die Genauigkeit und Leistung der PyTorch-basierten Inferenz beibehalten.

In diesem Artikel werfen wir einen genaueren Blick darauf, wie die ExecuTorch-Integration funktioniert, warum sie sich hervorragend für Edge-KI-Anwendungen eignet und wie Sie Ultralytics YOLO-Modelle mit ExecuTorch einsetzen können. Lassen Sie uns beginnen!

Was ist ExecuTorch?

Wenn Sie ein Modell in PyTorch trainieren, wird es in der Regel auf leistungsstarken Servern oder Grafikprozessoren (GPUs) in der Cloud ausgeführt. Die Bereitstellung desselben Modells auf einem mobilen oder eingebetteten Gerät, wie einem Smartphone, einer Drohne oder einem Mikrocontroller, erfordert jedoch eine spezielle Lösung, die mit begrenzter Rechenleistung, Speicher und Konnektivität umgehen kann.

Genau das ist es, was ExecuTorch zu bieten hat. ExecuTorch ist eine End-to-End-Lösung, die als Teil des PyTorch-Edge-Ökosystems entwickelt wurde und effiziente Inferenzen auf mobilen, eingebetteten und Edge-Plattformen ermöglicht. Sie erweitert die Fähigkeiten von PyTorch über die Cloud hinaus und ermöglicht es, KI-Modelle direkt auf lokalen Geräten auszuführen.

PyTorch-Inferencing an den Rand bringen

Im Kern bietet ExecuTorch eine leichtgewichtige C++-Laufzeit, mit der PyTorch-Modelle direkt auf dem Gerät ausgeführt werden können. ExecuTorch verwendet das PyTorch ExecuTorch (.pte)-Modellformat, ein optimierter Export, der für schnelleres Laden, geringeren Speicherbedarf und verbesserte Portabilität entwickelt wurde. 

Es unterstützt XNNPACK als Standard-Backend für effiziente CPU-Inferenz und erweitert die Kompatibilität mit einer Vielzahl von Hardware-Backends, einschließlich Core ML, Metal, Vulkan, Qualcomm, MediaTek, Arm EthosU, OpenVINO und anderen. 

Diese Backends ermöglichen eine optimierte Beschleunigung auf mobilen, eingebetteten und speziellen Edge-Geräten. ExecuTorch lässt sich auch in die PyTorch-Exportpipeline integrieren und bietet Unterstützung für fortschrittliche Funktionen wie Quantisierung und dynamische Formverarbeitung, um die Leistung und Anpassungsfähigkeit in verschiedenen Einsatzumgebungen zu verbessern.

Die Quantisierung verringert die Modellgröße und erhöht die Inferenzgeschwindigkeit, indem sie hochpräzise Werte (z. B. 32-Bit-Gleitkommazahlen) in weniger präzise Werte umwandelt, während die dynamische Formverarbeitung es den Modellen ermöglicht, variable Eingabegrößen effizient zu verarbeiten. Beide Funktionen sind entscheidend für die Ausführung von KI-Modellen auf ressourcenbeschränkten Edge-Geräten.

Abb. 1. Ein Blick auf die Funktionsweise von ExecuTorch(Quelle)

Eine einheitliche Schicht für Edge-Hardware

Neben seiner Laufzeit fungiert ExecuTorch auch als einheitliche Abstraktionsschicht für mehrere Hardware-Backends. Einfach ausgedrückt, abstrahiert es hardwarespezifische Details und verwaltet, wie Modelle mit verschiedenen Verarbeitungseinheiten, einschließlich CPUs, GPUs und Neural Processing Units (NPUs), interagieren.

Sobald ein Modell exportiert wurde, kann ExecuTorch so konfiguriert werden, dass das für ein bestimmtes Gerät am besten geeignete Backend ausgewählt wird. Entwickler können Modelle effizient auf unterschiedlicher Hardware einsetzen, ohne eigenen gerätespezifischen Code zu schreiben oder separate Konvertierungsworkflows zu pflegen.

Aufgrund seines modularen, portablen Designs und der nahtlosen PyTorch-Integration ist ExecuTorch eine hervorragende Option für den Einsatz von Computer-Vision-Modellen wie Ultralytics YOLO11 auf mobilen und eingebetteten Systemen. Es überbrückt die Lücke zwischen der Modellschulung und dem Einsatz in der realen Welt und macht KI schneller, effizienter und einfacher zu implementieren.

Hauptmerkmale von ExecuTorch

Bevor wir uns ansehen, wie Ultralytics YOLO-Modelle in das ExecuTorch-Format exportiert werden, wollen wir uns ansehen, was ExecuTorch zu einer zuverlässigen Option für den Einsatz von KI im Edge-Bereich macht.

Hier ein kleiner Einblick in einige der wichtigsten Funktionen:

  • Unterstützung der Quantisierung: ExecuTorch unterstützt die Modellquantisierung, eine Technik, die hochpräzise Werte in weniger präzise Werte umwandelt, um die Modellgröße zu reduzieren und die Inferenz zu beschleunigen. Auf diese Weise können Modelle schneller ausgeführt werden und benötigen weniger Speicherplatz auf Edge-Geräten, wobei die Genauigkeit nahezu gleich bleibt.
  • Effiziente Nutzung des Speichers: Einer der größten Vorteile von ExecuTorch ist die Art und Weise, wie es mit dem Speicher umgeht. Anstatt sich auf die dynamische Speicherzuweisung zu verlassen, die zu Latenzzeiten und Stromverbrauch führen kann, verwendet ExecuTorch die AOT-Speicherplanung (Ahead-of-Time). Während des Exports analysiert es den Modellgraphen und berechnet im Voraus, wie viel Speicher für jede Operation benötigt wird. Dadurch kann die Laufzeitumgebung Modelle mit einem statischen Speicherplan ausführen, was eine vorhersehbare Leistung gewährleistet und Verlangsamungen oder Abstürze auf Geräten mit begrenztem RAM oder begrenzter Verarbeitungskapazität verhindert.
  • Eingebaute Modell-Metadaten: Beim Export mit der von Ultralytics unterstützten Integration enthält jedes Modell eine YAML-Datei, die wichtige Metadaten wie die Größe des Eingabebildes, Klassennamen und Konfigurationsparameter enthält. Diese zusätzliche Datei vereinfacht die Integration des Modells in verschiedene Anwendungen und gewährleistet ein konsistentes Verhalten über verschiedene Edge-Plattformen hinweg.

Wie exportiert man Ultralytics YOLO-Modelle in das ExecuTorch-Format?

Nachdem wir nun ein besseres Verständnis für die Möglichkeiten von ExecuTorch haben, wollen wir uns ansehen, wie man Ultralytics YOLO-Modelle in das ExecuTorch-Format exportiert.

Schritt 1: Installieren Sie das Ultralytics Python-Paket

Um loszulegen, müssen Sie das Ultralytics Python-Paket mit pip, einem Paketinstallationsprogramm, installieren. Sie können dies tun, indem Sie "pip install ultralytics" in Ihrem Terminal oder der Eingabeaufforderung ausführen. 

Wenn Sie in einer Jupyter Notebook- oder Google Colab-Umgebung arbeiten, fügen Sie einfach ein Ausrufezeichen vor dem Befehl ein, z. B. "!pip install ultralytics". Nach der Installation bietet das Ultralytics-Paket alle Werkzeuge, die Sie zum Trainieren, Testen und Exportieren von Computer-Vision-Modellen benötigen, einschließlich Ultralytics YOLO11.

Wenn Sie bei der Installation oder beim Exportieren Ihres Modells auf Probleme stoßen, finden Sie in der offiziellen Ultralytics-Dokumentation und im Leitfaden für häufige Probleme ausführliche Schritte zur Fehlerbehebung und bewährte Verfahren, die Ihnen helfen, den Betrieb reibungslos aufzunehmen.

Schritt 2: Exportieren von Ultralytics YOLO11

Nach der Installation des Ultralytics-Pakets können Sie eine Variante des YOLO11-Modells laden und es in das ExecuTorch-Format exportieren. Sie können zum Beispiel ein vorab trainiertes Modell wie "yolo11n.pt" verwenden und es exportieren, indem Sie die Exportfunktion mit dem auf "executorch" eingestellten Format aufrufen. 

Dabei wird ein Verzeichnis mit dem Namen "yolo11n_executorch_model" erstellt, das die optimierte Modelldatei (.pte) und eine separate YAML-Metadaten-Datei mit wichtigen Details wie Bildgröße und Klassennamen enthält.

Hier ist der Code zum Exportieren Ihres Modells:

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="executorch")

Schritt 3: Durchführung von Schlussfolgerungen nach dem Exportieren des Modells

Sobald das Modell exportiert ist, kann es mit der ExecuTorch-Laufzeitumgebung auf mobilen Geräten eingesetzt werden. Die exportierte .pte-Modelldatei kann in Ihre Anwendung geladen werden, um Inferenzen in Echtzeit auf dem Gerät auszuführen, ohne dass eine Cloud-Verbindung erforderlich ist.

Der nachstehende Codeausschnitt zeigt zum Beispiel, wie das exportierte Modell geladen und die Inferenz ausgeführt wird. Inferenz bedeutet einfach, dass ein trainiertes Modell verwendet wird, um Vorhersagen für neue Daten zu treffen. Hier wird das Modell an einem Bild eines Busses getestet, das von einer öffentlichen URL stammt.

executorch_model = YOLO("yolo11n_executorch_model")

results = executorch_model.predict("https://ultralytics.com/images/bus.jpg", save=True)

Nachdem Sie den Code ausgeführt haben, finden Sie das Ausgabebild mit den erkannten Objekten im Ordner "runs/detect/predict" gespeichert. 

Abb. 2. Erkennung von Objekten anhand eines exportierten YOLO11-Modells im ExecuTorch-Format.

Vorteile der Nutzung der ExecuTorch-Integration

Während Sie die verschiedenen von Ultralytics unterstützten Exportoptionen erkunden, fragen Sie sich vielleicht, was die ExecuTorch-Integration so einzigartig macht. Der Hauptunterschied besteht darin, wie gut sie Leistung, Einfachheit und Flexibilität miteinander verbindet und es einfach macht, leistungsstarke KI-Modelle direkt auf Mobil- und Edge-Geräten einzusetzen.

Im Folgenden finden Sie einige der wichtigsten Vorteile der ExecuTorch-Integration:

  • Flexible Einsatzmöglichkeiten: ExecuTorch-Modelle können in mobilen Anwendungen, eingebetteten Systemen, IoT-Geräten (Internet der Dinge) und spezialisierter Edge-KI-Hardware eingesetzt werden. Diese Flexibilität ermöglicht es Entwicklern, skalierbare KI-Lösungen zu entwickeln, die über verschiedene Plattformen und Umgebungen hinweg konsistent funktionieren.
  • Benchmark-geprüfte Leistung: Tests auf Geräten wie dem Raspberry Pi 5 zeigen, dass YOLO11-Modelle, die in das ExecuTorch-Format exportiert wurden, etwa doppelt so schnell laufen wie ihre PyTorch-Pendants, und das bei nahezu identischer Genauigkeit.
  • Flexible Integrations-APIs: ExecuTorch bietet C++-, Kotlin- und Objective-C-APIs für iOS, Android und Embedded Linux, so dass Entwickler YOLO-Modelle direkt in native Anwendungen integrieren können.
  • Unterstützung von Hardware-Beschleunigung: ExecuTorch unterstützt mehrere Hardware-Beschleunigungs-Backends, einschließlich Vulkan und Metal für mobile GPUs, mit optionaler Integration für OpenCL und andere herstellerspezifische APIs. Es kann auch dedizierte Beschleuniger wie NPUs und DSPs nutzen, um erhebliche Geschwindigkeitssteigerungen gegenüber reinen CPU-Inferenzen zu erzielen.

Praktische Anwendungen von YOLO11 und dem ExecuTorch-Export

Kürzlich wurde Ultralytics als PyTorch ExecuTorch-Erfolgsgeschichte anerkannt, was unsere frühe Unterstützung für On-Device-Inferenz und unsere laufenden Beiträge zum PyTorch-Ökosystem hervorhebt. Diese Anerkennung spiegelt das gemeinsame Ziel wider, Hochleistungs-KI auf mobilen und Edge-Plattformen zugänglicher zu machen.

Von der Cloud zum Edge: Wie ExecuTorch und YOLO11 die Vision AI zum Leben erwecken

In der Praxis sieht das so aus, dass Vision-KI-Lösungen effizient auf allen Geräten - von Smartphones bis hin zu eingebetteten Systemen - laufen. In der Fertigung beispielsweise spielen Edge-Geräte eine entscheidende Rolle bei der Überwachung von Produktionslinien und der Erkennung von Fehlern in Echtzeit.

Abbildung 3. Ein Beispiel für die Verwendung von YOLO11 zur Analyse einer Fertigungsstraße.(Quelle)

Anstatt Bilder oder Sensordaten zur Verarbeitung in die Cloud zu schicken, was zu Verzögerungen führen kann und von der Internetverbindung abhängt, ermöglicht die ExecuTorch-Integration, dass YOLO11-Modelle direkt auf lokaler Hardware laufen. Das bedeutet, dass Fabriken Qualitätsprobleme sofort erkennen, Ausfallzeiten reduzieren und den Datenschutz wahren können - und das alles bei begrenzten Rechenressourcen.

Hier sind einige weitere Beispiele dafür, wie die ExecuTorch-Integration und die Ultralytics YOLO-Modelle angewendet werden können:

  • Intelligente Städte: Durch die lokale Ausführung von YOLO11-Modellen mit ExecuTorch können Städte schnellere, datengestützte Entscheidungen treffen, von der Erkennung von Staus bis hin zur Identifizierung von Gefahren, was die allgemeine Mobilität und Sicherheit verbessert.
  • Einzelhandel und Lagerhaltung: Mit der geräteinternen Inferenz können Einzelhändler die Regalüberwachung automatisieren, den Bestand verfolgen und Pakete schnell und sicher prüfen, ohne auf Cloud-Verbindungen angewiesen zu sein.
  • Robotik und Drohnen: Edge-optimierte YOLO11-Modelle ermöglichen es Robotern und Drohnen, auch ohne Internetzugang Objekte zu erkennen, in der Umgebung zu navigieren und Entscheidungen in Echtzeit zu treffen.

Abb. 4. Erkennung und Zählung von Autos im Verkehr mit YOLO11(Quelle)

Wesentliche Erkenntnisse

Der Export von Ultralytics YOLO-Modellen in das ExecuTorch-Format erleichtert die Bereitstellung von Computer-Vision-Modellen auf vielen Geräten, einschließlich Smartphones, Tablets und eingebetteten Systemen wie dem Raspberry Pi. Dies bedeutet, dass es möglich ist, optimierte Inferenzen auf dem Gerät auszuführen, ohne auf eine Cloud-Konnektivität angewiesen zu sein, was Geschwindigkeit, Datenschutz und Zuverlässigkeit verbessert.

Neben ExecuTorch unterstützt Ultralytics eine breite Palette von Integrationen, darunter TensorRT, OpenVINO, CoreML und andere, die Entwicklern die Flexibilität geben, ihre Modelle plattformübergreifend auszuführen. Mit der zunehmenden Verbreitung von Vision AI vereinfachen diese Integrationen die Bereitstellung intelligenter Systeme, die für eine effiziente Leistung unter realen Bedingungen entwickelt wurden.

Neugierig auf KI? Schauen Sie sich unser GitHub-Repository an, werden Sie Mitglied unserer Community und erkunden Sie unsere Lizenzierungsoptionen, um Ihr Vision-KI-Projekt zu starten. Erfahren Sie mehr über Innovationen wie KI im Einzelhandel und Computer Vision in der Logistik, indem Sie unsere Lösungsseiten besuchen.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert