Entdecken Sie, wie Edge AI die Echtzeit-, sichere und effiziente KI-Verarbeitung auf Geräten ermöglicht und Branchen wie das Gesundheitswesen und autonome Fahrzeuge transformiert.
Edge AI schafft eine dezentralisierte Computerumgebung, in der künstliche Intelligenz (AI) und Algorithmen für maschinelles Lernen (ML) direkt auf einem lokalen Gerät verarbeitet werden, anstatt sich auf entfernte Server zu verlassen. Durch die Datenverarbeitung in der Nähe der Quelle - beispielsweise wie z. B. auf Sensoren, Kameras oder IoT-Gateways - reduziert Edge AI die Latenzzeit und die Bandbreitennutzung erheblich. Dieser Ansatz ist wesentlich für Anwendungen, die Echtzeit-Inferenz, bei der es auf Millisekunden ankommt, oder in Umgebungen mit instabiler Internetkonnektivität. Die Verlagerung von der zentralen Verarbeitung zum Edge ermöglicht es Geräte, unabhängige Entscheidungen zu treffen und den den Datenschutz, indem sensible Informationen auf der lokalen lokalen Hardware bleiben.
In einem typischen Edge-KI-Workflow sammelt ein physisches Gerät Daten über Eingangssensoren. Anstatt die Rohdaten an ein an ein Cloud-Rechenzentrum zu übertragen, verwendet das Gerät einen eingebetteten Mikroprozessor oder einen spezialisierten Beschleuniger - wie ein NVIDIA Jetson-Modul oder eine Google Coral Edge TPUML-Modelle lokal auszuführen.
Um auf ressourcenbeschränkten Geräten effektiv arbeiten zu können, werden Modelle häufig optimiert. Techniken wie Modellquantisierung und Modellbeschneidung reduzieren die Dateigröße und die Rechen Komplexität von neuronalen Netzen ohne ohne signifikante Einbußen bei der Genauigkeit. Optimierte Rahmenwerke, wie zum Beispiel TensorRT und Intel OpenVINOfungieren als Inferenzmaschine zur Beschleunigung dieser Modelle auf spezifischen Hardware-Architekturen zu beschleunigen.
Obwohl sie häufig zusammen verwendet werden, ist es hilfreich, zwischen diesen beiden verwandten Begriffen zu unterscheiden:
Der Einsatz von Edge AI verändert die Industrie, indem er autonome Abläufe und intelligentere Analysen ermöglicht.
Der Einsatz eines Modells auf einem Edge-Gerät erfordert häufig den Export eines trainierten Modells in ein hardwareunabhängiges Format. Die Website ONNX (Open Neural Network Exchange) Format ist ein Standard, mit dem Modelle auf verschiedenen Plattformen ausgeführt werden können.
Das folgende Beispiel zeigt, wie ein leichtgewichtiges YOLO11 exportiert wird, das sich aufgrund seiner Schnelligkeit und Effizienz ideal für den Edge-Einsatz eignet Geschwindigkeit und Effizienz ideal ist:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
Die Implementierung von Edge AI ist mit Herausforderungen verbunden, vor allem im Hinblick auf die begrenzten Energie- und Speicherressourcen von Edge-Geräten im Vergleich zu riesigen Rechenzentren. Die Entwickler müssen ein Gleichgewicht zwischen Modellleistung und Energieverbrauch herstellen, wobei sie häufig System-on-Chip (SoC)-Designs von Unternehmen wie Qualcomm oder Ambarella.
In Zukunft wird die Integration von 5G-Netzen die Edge-KI weiter verbessern. KI weiter verbessern, indem sie die für die Gerätekoordination (Schwarmintelligenz) erforderliche Hochgeschwindigkeits-Konnektivität bereitstellen. Außerdem Techniken wie föderiertes Lernen ermöglichen es Edge Geräte, globale Modelle gemeinsam zu verbessern, während die Rohdaten dezentralisiert und privat bleiben.