Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Edge AI

Entdecken Sie, wie Edge AI die Echtzeit-, sichere und effiziente KI-Verarbeitung auf Geräten ermöglicht und Branchen wie das Gesundheitswesen und autonome Fahrzeuge transformiert.

Edge AI schafft eine dezentralisierte Computerumgebung, in der künstliche Intelligenz (AI) und Algorithmen für maschinelles Lernen (ML) direkt auf einem lokalen Gerät verarbeitet werden, anstatt sich auf entfernte Server zu verlassen. Durch die Datenverarbeitung in der Nähe der Quelle - beispielsweise wie z. B. auf Sensoren, Kameras oder IoT-Gateways - reduziert Edge AI die Latenzzeit und die Bandbreitennutzung erheblich. Dieser Ansatz ist wesentlich für Anwendungen, die Echtzeit-Inferenz, bei der es auf Millisekunden ankommt, oder in Umgebungen mit instabiler Internetkonnektivität. Die Verlagerung von der zentralen Verarbeitung zum Edge ermöglicht es Geräte, unabhängige Entscheidungen zu treffen und den den Datenschutz, indem sensible Informationen auf der lokalen lokalen Hardware bleiben.

Wie Edge AI funktioniert

In einem typischen Edge-KI-Workflow sammelt ein physisches Gerät Daten über Eingangssensoren. Anstatt die Rohdaten an ein an ein Cloud-Rechenzentrum zu übertragen, verwendet das Gerät einen eingebetteten Mikroprozessor oder einen spezialisierten Beschleuniger - wie ein NVIDIA Jetson-Modul oder eine Google Coral Edge TPUML-Modelle lokal auszuführen.

Um auf ressourcenbeschränkten Geräten effektiv arbeiten zu können, werden Modelle häufig optimiert. Techniken wie Modellquantisierung und Modellbeschneidung reduzieren die Dateigröße und die Rechen Komplexität von neuronalen Netzen ohne ohne signifikante Einbußen bei der Genauigkeit. Optimierte Rahmenwerke, wie zum Beispiel TensorRT und Intel OpenVINOfungieren als Inferenzmaschine zur Beschleunigung dieser Modelle auf spezifischen Hardware-Architekturen zu beschleunigen.

Edge AI vs. Edge Computing

Obwohl sie häufig zusammen verwendet werden, ist es hilfreich, zwischen diesen beiden verwandten Begriffen zu unterscheiden:

  • Edge Computing: Dies bezieht sich auf die umfassendere physische Architektur und Infrastruktur, die Rechenleistung und Datenspeicherung näher an den Ort bringt Ort bringt, wo sie benötigt wird. Es umfasst die Hardware und die Netzwerktopologie.
  • Edge AI: Dies ist eine spezielle Anwendung des Edge Computing. Sie beinhaltet die Ausführung intelligenter Algorithmen, wie z. B. Computer Vision (CV) oder prädiktive Analytik, auf dieser Edge-Infrastruktur.

Anwendungsfälle in der Praxis

Der Einsatz von Edge AI verändert die Industrie, indem er autonome Abläufe und intelligentere Analysen ermöglicht.

  • Autonome Systeme: Selbstfahrende Autos nutzen Edge AI zur sofortigen Verarbeitung Eingaben von LiDAR, Radar und Kameras sofort zu verarbeiten. Sie müssen Fußgänger detect , Verkehrsschilder lesen und Fahrspuren in Echtzeit navigieren. Der Rückgriff auf die Cloud würde zu gefährlichen Latenzzeiten führen; daher erfolgt die Objekterkennung vollständig im Bordcomputer des Fahrzeugs.
  • Intelligente Fertigung: Unter Industrieautomatisierung unterstützt Edge AI visuelle Inspektionssysteme an Montagelinien. Kameras, die mit Modellen wie Ultralytics YOLO11 können Produktfehler oder Sicherheits Sicherheitsrisiken sofort erkennen. Diese lokale Verarbeitung ermöglicht eine schnelle Anomalieerkennung und die Integration von Roboterarmen Roboterarmen, um defekte Teile zu entfernen, ohne die Produktion zu stoppen.
  • Smart Cities: Kommunen setzen Edge AI für intelligentes intelligentes Verkehrsmanagement. Ampeln können die Zeitsteuerung dynamisch anpassen, basierend auf der Analyse des Fahrzeugflusses, die lokal an der Kreuzung durchgeführt wird, um Staus zu reduzieren und die städtische Mobilität zu optimieren.

Bereitstellen von Modellen für den Edge

Der Einsatz eines Modells auf einem Edge-Gerät erfordert häufig den Export eines trainierten Modells in ein hardwareunabhängiges Format. Die Website ONNX (Open Neural Network Exchange) Format ist ein Standard, mit dem Modelle auf verschiedenen Plattformen ausgeführt werden können.

Das folgende Beispiel zeigt, wie ein leichtgewichtiges YOLO11 exportiert wird, das sich aufgrund seiner Schnelligkeit und Effizienz ideal für den Edge-Einsatz eignet Geschwindigkeit und Effizienz ideal ist:

from ultralytics import YOLO

# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)

Herausforderungen und zukünftige Trends

Die Implementierung von Edge AI ist mit Herausforderungen verbunden, vor allem im Hinblick auf die begrenzten Energie- und Speicherressourcen von Edge-Geräten im Vergleich zu riesigen Rechenzentren. Die Entwickler müssen ein Gleichgewicht zwischen Modellleistung und Energieverbrauch herstellen, wobei sie häufig System-on-Chip (SoC)-Designs von Unternehmen wie Qualcomm oder Ambarella.

In Zukunft wird die Integration von 5G-Netzen die Edge-KI weiter verbessern. KI weiter verbessern, indem sie die für die Gerätekoordination (Schwarmintelligenz) erforderliche Hochgeschwindigkeits-Konnektivität bereitstellen. Außerdem Techniken wie föderiertes Lernen ermöglichen es Edge Geräte, globale Modelle gemeinsam zu verbessern, während die Rohdaten dezentralisiert und privat bleiben.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten