Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

TinyML

Entdecken Sie TinyML und lernen Sie, wie Sie Ultralytics auf Mikrocontrollern mit geringem Stromverbrauch einsetzen. Erfahren Sie, wie Sie Modelle für das IoT mithilfe von Quantisierung und der Ultralytics optimieren können.

Tiny Machine Learning, allgemein als TinyML bezeichnet, stellt ein spezialisiertes Teilgebiet des maschinellen Lernens dar, das sich auf den Einsatz von Modellen auf Geräten mit extrem geringem Stromverbrauch und begrenzten Ressourcen konzentriert, wie beispielsweise Mikrocontrollern und kleinen IoT-Geräten. Im Gegensatz zu herkömmlichen cloudbasierten Systemen, die auf immense Rechenressourcen angewiesen sind, arbeitet TinyML vollständig am Netzwerkrand. Durch die lokale Ausführung intelligenter Algorithmen auf Geräten mit Leistungsbeschränkungen, die oft nur wenige Milliwatt betragen, minimiert dieser Ansatz die Latenz, gewährleistet den Datenschutz und reduziert den Bandbreitenverbrauch drastisch – ein Paradigma, das von Communities wie der TinyML Foundation unterstützt und vorangetrieben wird.

Um komplexe neuronale Netzwerkarchitekturen erfolgreich auf Hardware mit starken Einschränkungen wie ARM-Cortex-M-Prozessoren zu portieren, müssen die Modelle einer strengen Optimierung unterzogen werden. Techniken wie die Modellquantisierung– bei der 32-Bit- Gleitkomma-Gewichte in 8-Bit-Ganzzahlen umgewandelt werden – und das Modell-Pruning werden eingesetzt, um den Gesamtspeicherbedarf deutlich zu reduzieren. Heute erleichtern spezialisierte Frameworks wie Google TensorFlow for Microcontrollers und PyTorch ExecuTorch diese präzisen Komprimierungsabläufe und bringen fortschrittliche visuelle und auditive Intelligenz in alltägliche eingebettete Hardware.

TinyML vs. Edge-KI

Zwar ist TinyML eng mit Edge-KI verbunden, doch der wesentliche Unterschied liegt in der Hardware-Größe und dem Stromverbrauch. Edge-KI ist ein weiter gefasster Begriff, der jede lokale Ausführung von KI-Modellen umfasst, wobei häufig Einplatinencomputer wie ein Raspberry Pi oder robuste eingebettete GPUs wie ein NVIDIA zum Einsatz kommen. Im Gegensatz dazu zielt TinyML speziell auf tief eingebettete Systeme ab, die monatelang oder jahrelang mit Batterien betrieben werden, wie beispielsweise Arduino-Boards oder Chips von STMicroelectronics. Diese Geräte verfügen in der Regel nur über wenige hundert Kilobyte RAM, was eine aggressive Modellkomprimierung zwingend erforderlich macht.

Anwendungsfälle in der Praxis

Die Möglichkeit, KI-Funktionen direkt auf minimaler Hardware einzusetzen, hat zahlreiche praktische Anwendungsfälle in verschiedenen Branchen erschlossen:

  • Vorausschauende Instandhaltung in der intelligenten Fertigung: Fabriken bringen extrem stromsparende Vibrations- und Audiosensoren direkt an den Maschinen an. Diese TinyML-Sensoren analysieren kontinuierlich die Motorfrequenzen, um detect Anomalien detect , die auf einen drohenden Ausfall hindeuten, sodass die Wartungsteams Probleme beheben können, bevor kostspielige Ausfallzeiten entstehen.
  • Intelligente Präzisionslandwirtschaft: Batteriebetriebene TinyML-Geräte werden über weitläufige Felder verteilt, um lokale Umweltbedingungen zu überwachen und detect frühe Anzeichen von Schädlingsbefall oder Krankheiten mithilfe einfacher Kameramodule detect , wobei sie statt schwerer Bilddateien lediglich kompakte Warnmeldungen übertragen.
  • Akustische Überwachung zum Schutz wildlebender Tiere: Forscher nutzen versteckte akustische Sensorarrays, die mit TinyML betrieben werden, um in dichten Wäldern detect spezifischen Geräusche gefährdeter Arten oder illegaler Abholzung (wie Kettensägen) detect . Diese mit Solar- oder Batteriestrom betriebenen Geräte analysieren die Geräusche vor Ort und lösen sofort Fernalarme aus.

Modelle für TinyML exportieren

Die Vorbereitung eines Modells für einen Mikrocontroller erfordert eine strenge Exportformatierung. Mit Ultralytics können Entwickler robuste Pipelines zur Objekterkennung erstellen und diese für eingebettete Zielsysteme komprimieren. Sie können Ihre Datensätze und Modellversionen nahtlos auf der Ultralytics verwalten, bevor Sie sie lokal exportieren. Die native TFLite ermöglicht eine mühelose Konvertierung in die für Mikrocontroller erforderlichen 8-Bit-Ganzzahlformate und ergänzt andere hardwarespezifische Modellbereitstellungsoptionen wie Apples CoreML, Google Edge TPU und NVIDIA TensorRT.

Das folgende Beispiel zeigt, wie man ein schlankes YOLO26-Modell exportiert, das speziell für die INT8-Quantisierung optimiert wurde und sich somit für den Einsatz auf TinyML-kompatiblen Edge-Plattformen eignet:

from ultralytics import YOLO

# Initialize the lightweight YOLO26 Nano model for edge use cases
model = YOLO("yolo26n.pt")

# Export to TFLite format with INT8 quantization and a reduced image size
# This minimizes the memory footprint and accelerates inference on microcontrollers
model.export(format="tflite", int8=True, imgsz=160)

Lassen Sie uns gemeinsam die Zukunft der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens