Einsatz von Ultralytics YOLO11 auf Rockchip für effiziente Edge-KI

12. Februar 2025
Erfahren Sie, wie Sie Ultralytics YOLO11 auf Rockchip mit dem RKNN Toolkit für effiziente Edge AI, AI-Beschleunigung und Echtzeit-Objekterkennung einsetzen können.

12. Februar 2025
Erfahren Sie, wie Sie Ultralytics YOLO11 auf Rockchip mit dem RKNN Toolkit für effiziente Edge AI, AI-Beschleunigung und Echtzeit-Objekterkennung einsetzen können.
Ein aktuelles Schlagwort in der KI-Gemeinschaft ist "Edge AI", insbesondere wenn es um Computer Vision geht. Mit der Zunahme von KI-gesteuerten Anwendungen steigt der Bedarf, Modelle effizient auf eingebetteten Geräten mit begrenzter Leistung und Rechenressourcen auszuführen.
Drohnen nutzen beispielsweise Vision AI für die Echtzeitnavigation, intelligente Kameras erkennen Objekte sofort, und industrielle Automatisierungssysteme führen Qualitätskontrollen durch, ohne auf Cloud-Computing angewiesen zu sein. Diese Anwendungen erfordern eine schnelle, effiziente KI-Verarbeitung direkt auf Edge-Geräten, um Echtzeitleistung und geringe Latenzzeiten zu gewährleisten. Die Ausführung von KI-Modellen auf Edge-Geräten ist jedoch nicht immer einfach. KI-Modelle benötigen oft mehr Leistung und Speicher, als viele Edge-Geräte bewältigen können.
Das RKNN-Toolkit von Rockchip hilft bei der Lösung dieses Problems durch die Optimierung von Deep-Learning-Modellen für Rockchip-betriebene Geräte. Es verwendet dedizierte Neural Processing Units (NPUs), um die Inferenz zu beschleunigen und die Latenzzeit und den Stromverbrauch im Vergleich zur CPU- oder GPU-Verarbeitung zu reduzieren.
Die Vision AI-Gemeinschaft war sehr daran interessiert, Ultralytics YOLO11 auf Rockchip-basierten Geräten auszuführen, und wir haben auf Sie gehört. Wir haben Unterstützung für den Export von YOLO11 in das RKNN-Modellformat hinzugefügt. In diesem Artikel erfahren Sie, wie der Export in das RKNN-Format funktioniert und warum der Einsatz von YOLO11 auf Rockchip-basierten Geräten eine entscheidende Neuerung darstellt.
Rockchip ist ein Unternehmen, das System-on-Chips (SoCs) entwickelt - winzige, aber leistungsstarke Prozessoren, die viele eingebettete Geräte betreiben. Diese Chips kombinieren eine CPU, eine GPU und eine Neural Processing Unit (NPU), um alles von allgemeinen Rechenaufgaben bis hin zu Vision AI-Anwendungen zu bewältigen, die auf Objekterkennung und Bildverarbeitung angewiesen sind.
Rockchip SoCs werden in einer Vielzahl von Geräten eingesetzt, darunter Single-Board-Computer (SBCs), Entwicklungsboards, industrielle KI-Systeme und intelligente Kameras. Viele bekannte Hardware-Hersteller wie Radxa, ASUS, Pine64, Orange Pi, Odroid, Khadas und Banana Pi bauen Geräte mit SoCs von Rockchip. Diese Boards sind für Edge-KI- und Computer-Vision-Anwendungen sehr beliebt, da sie ein ausgewogenes Verhältnis von Leistung, Energieeffizienz und Erschwinglichkeit bieten.
Damit KI-Modelle auf diesen Geräten effizient laufen können, bietet Rockchip das RKNN (Rockchip Neural Network) Toolkit an. Es ermöglicht Entwicklern die Konvertierung und Optimierung von Deep-Learning-Modellen für die Verwendung der Neural Processing Units (NPUs) von Rockchip.
RKNN-Modelle sind für Inferenzen mit geringer Latenz und effizienter Energienutzung optimiert. Durch die Konvertierung von Modellen in RKNN können Entwickler schnellere Verarbeitungsgeschwindigkeiten, einen geringeren Stromverbrauch und eine verbesserte Effizienz auf Rockchip-betriebenen Geräten erzielen.
Werfen wir einen genaueren Blick darauf, wie RKNN-Modelle die KI-Leistung auf Rockchip-fähigen Geräten verbessern.
Im Gegensatz zu CPUs und GPUs, die ein breites Spektrum an Rechenaufgaben bewältigen, sind die NPUs von Rockchip speziell für Deep Learning konzipiert. Durch die Konvertierung von KI-Modellen in das RKNN-Format können Entwickler Inferenzen direkt auf der NPU ausführen. Dies macht RKNN-Modelle besonders nützlich für Echtzeit-Computer-Vision-Aufgaben, bei denen eine schnelle und effiziente Verarbeitung unerlässlich ist.
NPUs sind für KI-Aufgaben schneller und effizienter als CPUs und GPUs, da sie für die parallele Verarbeitung von Berechnungen in neuronalen Netzen ausgelegt sind. Während CPUs Aufgaben Schritt für Schritt verarbeiten und GPUs Arbeitslasten auf mehrere Kerne verteilen, sind NPUs für die effizientere Durchführung KI-spezifischer Berechnungen optimiert.
Dadurch laufen RKNN-Modelle schneller und verbrauchen weniger Strom, was sie ideal für batteriebetriebene Geräte, intelligente Kameras, Industrieautomatisierung und andere Edge-KI-Anwendungen macht, die Echtzeitentscheidungen erfordern.
Die YOLO-Modelle (You Only Look Once) von Ultralytics sind für Echtzeit-Computer-Vision-Aufgaben wie Objekterkennung, Instanzsegmentierung und Bildklassifizierung konzipiert. Sie sind für ihre Schnelligkeit, Genauigkeit und Effizienz bekannt und werden in vielen Branchen eingesetzt, z. B. in der Landwirtschaft, der Fertigung, dem Gesundheitswesen und bei autonomen Systemen.
Diese Modelle haben sich im Laufe der Zeit erheblich verbessert. Ultralytics YOLOv5 zum Beispiel erleichterte die Objekterkennung mit PyTorch. Dann fügte Ultralytics YOLOv8 neue Funktionen wie Posenschätzung und Bildklassifizierung hinzu. Jetzt geht YOLO11 noch einen Schritt weiter, indem es die Genauigkeit erhöht und gleichzeitig weniger Ressourcen verbraucht. Tatsächlich erzielt YOLO11m eine bessere Leistung auf dem COCO-Datensatz und verwendet dabei 22 % weniger Parameter als YOLOv8m, was es sowohl präziser als auch effizienter macht.
Ultralytics YOLO-Modelle unterstützen auch den Export in mehrere Formate, was eine flexible Bereitstellung auf verschiedenen Plattformen ermöglicht. Zu diesen Formaten gehören ONNX, TensorRT, CoreML und OpenVINO, was den Entwicklern die Freiheit gibt, die Leistung auf der Grundlage ihrer Zielhardware zu optimieren.
Mit der zusätzlichen Unterstützung für den Export von YOLO11 in das RKNN-Modellformat kann YOLO11 nun die Vorteile der NPUs von Rockchip nutzen. Das kleinste Modell, YOLO11n im RKNN-Format, erreicht eine beeindruckende Inferenzzeit von 99,5 ms pro Bild und ermöglicht so eine Echtzeitverarbeitung auch auf eingebetteten Geräten.
Derzeit können YOLO11-Objekterkennungsmodelle in das RKNN-Format exportiert werden. Bleiben Sie dran - wir arbeiten daran, in zukünftigen Updates Unterstützung für andere Computer Vision Aufgaben und INT8-Quantisierung hinzuzufügen.
Der Export von YOLO11 in das RKNN-Format ist ein unkomplizierter Prozess. Sie können Ihr individuell trainiertes YOLO11-Modell laden, die Rockchip-Zielplattform angeben und es mit ein paar Zeilen Code in das RKNN-Format konvertieren. Das RKNN-Format ist mit verschiedenen Rockchip-SoCs kompatibel, darunter RK3588, RK3566 und RK3576, wodurch eine breite Hardware-Unterstützung gewährleistet ist.
Sobald das RKNN-Modell exportiert wurde, kann es auf Rockchip-basierten Geräten eingesetzt werden. Um das Modell einzusetzen, laden Sie einfach die exportierte RKNN-Datei auf Ihr Rockchip-Gerät und starten die Inferenz - den Prozess der Verwendung des trainierten KI-Modells, um neue Bilder oder Videos zu analysieren und Objekte in Echtzeit zu erkennen. Mit nur wenigen Zeilen Code können Sie beginnen, Objekte aus Bildern oder Videostreams zu identifizieren.
Um eine bessere Vorstellung davon zu bekommen, wo YOLO11 auf Rockchip-fähigen Geräten in der realen Welt eingesetzt werden kann, lassen Sie uns einige wichtige Edge-KI-Anwendungen durchgehen.
Rockchip Prozessoren werden häufig in Android-basierten Tablets, Entwicklungsboards und industriellen KI-Systemen eingesetzt. Dank der Unterstützung für Android, Linux und Python können Sie problemlos Vision-KI-gesteuerte Lösungen für eine Vielzahl von Branchen entwickeln und einsetzen.
Eine häufige Anwendung, bei der YOLO11 auf Rockchip-betriebenen Geräten läuft, sind robuste Tablets. Dabei handelt es sich um robuste, leistungsstarke Tablets, die für raue Umgebungen wie Lagerhallen, Baustellen und industrielle Umgebungen entwickelt wurden. Diese Tablets können die Objekterkennung nutzen, um die Effizienz und Sicherheit zu verbessern.
In der Lagerlogistik zum Beispiel können Arbeiter ein Rockchip-betriebenes Tablet mit YOLO11 verwenden, um Inventar automatisch zu scannen und zu erkennen, wodurch menschliche Fehler reduziert und die Bearbeitungszeiten beschleunigt werden. In ähnlicher Weise können diese Tablets auf Baustellen eingesetzt werden, um zu erkennen, ob die Arbeiter die vorgeschriebene Sicherheitsausrüstung wie Helme und Westen tragen, was Unternehmen hilft, Vorschriften durchzusetzen und Unfälle zu vermeiden.
In der Fertigung und Automatisierung können Rockchip-gesteuerte Industrieboards eine große Rolle bei der Qualitätskontrolle und Prozessüberwachung spielen. Ein Industrieboard ist ein kompaktes, hochleistungsfähiges Computermodul, das für eingebettete Systeme in industriellen Umgebungen entwickelt wurde. Diese Boards enthalten in der Regel Prozessoren, Speicher, E/A-Schnittstellen und Konnektivitätsoptionen, die mit Sensoren, Kameras und automatisierten Maschinen integriert werden können.
Die Ausführung von YOLO11-Modellen auf diesen Boards ermöglicht die Analyse von Produktionslinien in Echtzeit, um Probleme sofort zu erkennen und die Effizienz zu verbessern. In der Automobilproduktion beispielsweise kann ein KI-System mit Rockchip-Hardware und YOLO11 Kratzer, falsch ausgerichtete Teile oder Lackfehler erkennen, während die Autos das Fließband durchlaufen. Indem diese Mängel in Echtzeit erkannt werden, können die Hersteller den Ausschuss reduzieren, die Produktionskosten senken und höhere Qualitätsstandards gewährleisten, bevor die Fahrzeuge die Kunden erreichen.
Rockchip-basierte Geräte bieten ein gutes Gleichgewicht zwischen Leistung, Kosten und Effizienz, was sie zu einer guten Wahl für den Einsatz von YOLO11 in Edge-KI-Anwendungen macht.
Hier sind einige Vorteile der Ausführung von YOLO11 auf Rockchip-basierten Geräten:
Ultralytics YOLO11 kann durch die Nutzung von Hardwarebeschleunigung und des RKNN-Formats effizient auf Rockchip-basierten Geräten ausgeführt werden. Dies verkürzt die Inferenzzeit und verbessert die Leistung, wodurch es sich ideal für Echtzeit-Computer-Vision-Aufgaben und Edge-KI-Anwendungen eignet.
Das RKNN-Toolkit bietet wichtige Optimierungswerkzeuge wie Quantisierung und Feinabstimmung, die sicherstellen, dass YOLO11-Modelle auf Rockchip-Plattformen gut funktionieren. Die Optimierung von Modellen für eine effiziente Verarbeitung auf dem Gerät wird mit der zunehmenden Verbreitung von Edge AI von entscheidender Bedeutung sein. Mit den richtigen Tools und der richtigen Hardware können Entwickler neue Möglichkeiten für Computer-Vision-Lösungen in verschiedenen Branchen erschließen.
Werden Sie Mitglied unserer Community und erkunden Sie unser GitHub-Repository, um mehr über KI zu erfahren. Sehen Sie auf unseren Lösungsseiten, wie Computer Vision in der Landwirtschaft und KI im Gesundheitswesen Innovationen vorantreiben. Informieren Sie sich auch über unsere Lizenzierungsoptionen, um noch heute mit der Entwicklung Ihrer Vision AI-Lösungen zu beginnen!