Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Edge AI

Entdecken Sie Edge-KI und erfahren Sie, wie Sie Ultralytics auf lokaler Hardware für Echtzeit-Inferenz, reduzierte Latenz und verbesserten Datenschutz am Rand einsetzen können.

Edge-KI bezieht sich auf den Einsatz von Algorithmen und Modellen der künstlichen Intelligenz (KI) direkt auf lokalen Hardwaregeräten – wie Smartphones, IoT-Sensoren, Drohnen und vernetzten Fahrzeugen – anstatt sich auf zentralisierte Cloud-Computing-Zentren zu verlassen. Dieser dezentrale Ansatz ermöglicht die Verarbeitung von Daten an der Quelle ihrer Entstehung, wodurch die Latenz beim Hin- und Hersenden von Informationen an Remote-Server erheblich reduziert wird. Durch die lokale Ausführung von Machine-Learning-Aufgaben (ML) können Geräte sofortige Entscheidungen treffen, ohne Internetverbindung zuverlässig arbeiten und den Datenschutz verbessern, indem sensible Informationen auf dem Gerät selbst gespeichert bleiben.

Wie Edge AI funktioniert

Der Kern von Edge-KI besteht darin, eine Inferenz-Engine auf einem eingebetteten System auszuführen. Da Edge-Geräte im Vergleich zu Cloud-Servern in der Regel eine begrenzte Akkulaufzeit und Rechenleistung haben, müssen die KI-Modelle äußerst effizient sein. Entwickler verwenden häufig Techniken wie Modellquantisierung oder Modellbeschneidung, um große neuronale Netze zu komprimieren, ohne dabei nennenswerte Genauigkeitseinbußen hinnehmen zu müssen.

Spezialisierte Hardware-Beschleuniger werden häufig eingesetzt, um diese Workloads effizient zu bewältigen. Beispiele hierfür sind die NVIDIA für Robotik und die Google Edge TPU für Inferenz mit geringem Stromverbrauch. Software-Frameworks spielen ebenfalls eine wichtige Rolle; Tools wie TensorRT und TFLite optimieren Modelle speziell für diese eingeschränkten Umgebungen und gewährleisten eine schnelle Echtzeit-Inferenz.

Edge AI vs. Edge Computing

Obwohl die Begriffe oft synonym verwendet werden, ist es hilfreich, zwischen ihnen zu unterscheiden:

  • Edge Computing: Dies beschreibt die umfassendere physische Infrastruktur und Netzwerktopologie, bei der die Datenverarbeitung in der Nähe der Datenquelle stattfindet. Es ist das „Wo“ der Gleichung.
  • Edge-KI: Dies bezieht sich speziell auf die intelligenten Anwendungen, die auf dieser Infrastruktur laufen. Es ist das „Was”. Beispielsweise fungiert eine Überwachungskamera als Edge-Computing-Gerät, aber wenn sie Computer Vision (CV) verwendet, um eine bestimmte Person zu erkennen, führt sie Edge-KI aus.

Anwendungsfälle in der Praxis

Edge-KI verändert Branchen, indem sie autonome Entscheidungen in kritischen Szenarien ermöglicht:

  • Autonome Fahrzeuge: Selbstfahrende Autos generieren täglich Terabytes an Daten. Aufgrund der Signalverzögerung können sie sich nicht auf die Cloud verlassen, um Fußgänger oder Hindernisse zu identifizieren. Stattdessen nutzen sie integrierte Edge-KI zur sofortigen Objekterkennung, um die Sicherheit der Passagiere zu gewährleisten.
  • Intelligente Fertigung: Im Industrial IoT (IIoT) nutzen Sensoren in Fabrikhallen Edge-KI für die vorausschauende Wartung. Durch die lokale Analyse von Vibrations- und Temperaturdaten kann das System detect und Geräteausfälle in Echtzeit vorhersagen, wodurch kostspielige Ausfallzeiten vermieden werden.
  • Gesundheitswesen: Tragbare medizinische Geräte, die mit VisionAI ausgestattet sind, können medizinische Bilder oder Vitalparameter von Patienten direkt am Behandlungsort analysieren und so sofortige Diagnoseunterstützung in abgelegenen Gebieten mit schlechter Konnektivität bieten.

Bereitstellen von Modellen für den Edge

Die Bereitstellung eines Modells am Edge umfasst in der Regel das Trainieren eines Modells in einer hochrechenintensiven Umgebung und den anschließenden Export in ein mit Edge-Geräten kompatibles Format, wie z. B. ONNX oder OpenVINO. Die Ultralytics vereinfacht diesen Arbeitsablauf und ermöglicht es Benutzern, Modelle für verschiedene Edge-Ziele zu trainieren und automatisch zu exportieren.

Das folgende Beispiel zeigt, wie ein leichtgewichtiges YOLO26 -Modell, das speziell auf Effizienz ausgelegt ist, in ein Format exportiert wird, das für den Einsatz auf Mobilgeräten und Edge-Geräten geeignet ist.

from ultralytics import YOLO

# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")

# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")

Fortgeschrittene Edge-Implementierungen nutzen häufig Containerisierungstechnologien wie Docker, um Anwendungen zu verpacken und sicherzustellen, dass sie über verschiedene Gerätearchitekturen hinweg konsistent laufen, von Raspberry Pi -Einheiten bis hin zu industriellen Gateways.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten