Entdecken Sie TinyML und lernen Sie, wie Sie Ultralytics auf Mikrocontrollern mit geringem Stromverbrauch einsetzen. Erfahren Sie, wie Sie Modelle für das IoT mithilfe von Quantisierung und der Ultralytics optimieren können.
Tiny Machine Learning, allgemein als TinyML bezeichnet, stellt ein spezialisiertes Teilgebiet des maschinellen Lernens dar, das sich auf den Einsatz von Modellen auf Geräten mit extrem geringem Stromverbrauch und begrenzten Ressourcen konzentriert, wie beispielsweise Mikrocontrollern und kleinen IoT-Geräten. Im Gegensatz zu herkömmlichen cloudbasierten Systemen, die auf immense Rechenressourcen angewiesen sind, arbeitet TinyML vollständig am Netzwerkrand. Durch die lokale Ausführung intelligenter Algorithmen auf Geräten mit Leistungsbeschränkungen, die oft nur wenige Milliwatt betragen, minimiert dieser Ansatz die Latenz, gewährleistet den Datenschutz und reduziert den Bandbreitenverbrauch drastisch – ein Paradigma, das von Communities wie der TinyML Foundation unterstützt und vorangetrieben wird.
Um komplexe neuronale Netzwerkarchitekturen erfolgreich auf Hardware mit starken Einschränkungen wie ARM-Cortex-M-Prozessoren zu portieren, müssen die Modelle einer strengen Optimierung unterzogen werden. Techniken wie die Modellquantisierung– bei der 32-Bit- Gleitkomma-Gewichte in 8-Bit-Ganzzahlen umgewandelt werden – und das Modell-Pruning werden eingesetzt, um den Gesamtspeicherbedarf deutlich zu reduzieren. Heute erleichtern spezialisierte Frameworks wie Google TensorFlow for Microcontrollers und PyTorch ExecuTorch diese präzisen Komprimierungsabläufe und bringen fortschrittliche visuelle und auditive Intelligenz in alltägliche eingebettete Hardware.
Zwar ist TinyML eng mit Edge-KI verbunden, doch der wesentliche Unterschied liegt in der Hardware-Größe und dem Stromverbrauch. Edge-KI ist ein weiter gefasster Begriff, der jede lokale Ausführung von KI-Modellen umfasst, wobei häufig Einplatinencomputer wie ein Raspberry Pi oder robuste eingebettete GPUs wie ein NVIDIA zum Einsatz kommen. Im Gegensatz dazu zielt TinyML speziell auf tief eingebettete Systeme ab, die monatelang oder jahrelang mit Batterien betrieben werden, wie beispielsweise Arduino-Boards oder Chips von STMicroelectronics. Diese Geräte verfügen in der Regel nur über wenige hundert Kilobyte RAM, was eine aggressive Modellkomprimierung zwingend erforderlich macht.
Die Möglichkeit, KI-Funktionen direkt auf minimaler Hardware einzusetzen, hat zahlreiche praktische Anwendungsfälle in verschiedenen Branchen erschlossen:
Die Vorbereitung eines Modells für einen Mikrocontroller erfordert eine strenge Exportformatierung. Mit Ultralytics können Entwickler robuste Pipelines zur Objekterkennung erstellen und diese für eingebettete Zielsysteme komprimieren. Sie können Ihre Datensätze und Modellversionen nahtlos auf der Ultralytics verwalten, bevor Sie sie lokal exportieren. Die native TFLite ermöglicht eine mühelose Konvertierung in die für Mikrocontroller erforderlichen 8-Bit-Ganzzahlformate und ergänzt andere hardwarespezifische Modellbereitstellungsoptionen wie Apples CoreML, Google Edge TPU und NVIDIA TensorRT.
Das folgende Beispiel zeigt, wie man ein schlankes YOLO26-Modell exportiert, das speziell für die INT8-Quantisierung optimiert wurde und sich somit für den Einsatz auf TinyML-kompatiblen Edge-Plattformen eignet:
from ultralytics import YOLO
# Initialize the lightweight YOLO26 Nano model for edge use cases
model = YOLO("yolo26n.pt")
# Export to TFLite format with INT8 quantization and a reduced image size
# This minimizes the memory footprint and accelerates inference on microcontrollers
model.export(format="tflite", int8=True, imgsz=160)
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens