Découvrez l'IA en périphérie et apprenez à déployer Ultralytics sur du matériel local pour bénéficier d'une inférence en temps réel, d'une latence réduite et d'une confidentialité des données renforcée en périphérie.
L'IA en périphérie désigne le déploiement d' algorithmes et de modèles d'intelligence artificielle (IA) directement sur des appareils matériels locaux, tels que les smartphones, les capteurs IoT, les drones et les véhicules connectés, plutôt que de s'appuyer sur des centres de cloud computing centralisés. Cette approche décentralisée permet de traiter les données à la source de leur création, ce qui réduit considérablement la latence liée à l' envoi et à la réception d'informations vers des serveurs distants. En exécutant des tâches d'apprentissage automatique (ML) localement, les appareils peuvent prendre des décisions instantanées, fonctionner de manière fiable sans connexion Internet et améliorer la confidentialité des données en conservant les informations sensibles sur l' appareil lui-même.
Le cœur de l'IA en périphérie consiste à exécuter un moteur d'inférence sur un système embarqué. Étant donné que les appareils en périphérie ont généralement une autonomie et une puissance de calcul limitées par rapport aux serveurs cloud, les modèles d'IA doivent être très efficaces. Les développeurs ont souvent recours à des techniques telles que la quantification ou l' élagage des modèles pour compresser les grands réseaux neuronaux sans sacrifier de manière significative la précision.
Des accélérateurs matériels spécialisés sont souvent utilisés pour traiter efficacement ces charges de travail. Citons par exemple la plateforme NVIDIA pour la robotique et le Google Edge TPU pour l'inférence à faible consommation d'énergie. Les cadres logiciels jouent également un rôle essentiel ; des outils tels que TensorRT et TFLite optimisent les modèles spécifiquement pour ces environnements contraints, garantissant une inférence rapide en temps réel.
Bien que ces termes soient souvent utilisés de manière interchangeable, il est utile de les distinguer :
L'IA en périphérie transforme les industries en permettant la prise de décision autonome dans des scénarios critiques :
Le déploiement d'un modèle à la périphérie implique généralement de former un modèle dans un environnement à forte puissance de calcul, puis de l'exporter vers un format compatible avec les périphériques périphériques, tel que ONNX ou OpenVINO. Ultralytics simplifie ce flux de travail, permettant aux utilisateurs de former et d'exporter automatiquement des modèles pour diverses cibles périphériques.
L'exemple suivant montre comment exporter un modèle YOLO26 léger spécialement conçu pour être efficace vers un format adapté au déploiement mobile et en périphérie.
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
Les déploiements avancés en périphérie utilisent souvent des technologies de conteneurisation telles que Docker pour regrouper les applications, garantissant ainsi leur fonctionnement cohérent sur différentes architectures d'appareils, des unités Raspberry Pi aux passerelles industrielles.