Découvrez comment l'IA en périphérie permet un traitement de l'IA en temps réel, sécurisé et efficace sur les appareils, transformant des secteurs tels que la santé et les véhicules autonomes.
Edge AI crée un environnement informatique décentralisé où l'intelligence l'intelligence artificielle (IA) et l'intelligence artificielle (IA) et l'apprentissage machine (ML) directement sur un appareil local, plutôt que de s'appuyer sur des serveurs distants. En effectuant le traitement des données près de la source, par exemple sur les capteurs, les caméras ou les passerelles IoT. sur des capteurs, des caméras ou des passerelles IoT, l'Edge AI réduit considérablement la latence et l'utilisation de la bande passante. Cette approche est essentielle pour les applications nécessitant une inférence en temps réel où les millisecondes comptent, ou dans des environnements où la connectivité internet est instable. L'abandon du traitement centralisé au profit de la périphérie permet aux appareils de prendre des décisions indépendantes, ce qui améliore la qualité de la communication. de prendre des décisions indépendantes, améliorant ainsi la confidentialité des données en conservant les informations sensibles sur le site de l'utilisateur. la confidentialité des données en conservant les informations sur le matériel local.
Dans un flux de travail Edge AI typique, un appareil physique collecte des données par le biais de capteurs d'entrée. Au lieu de transmettre des données brutes à un centre de calcul en nuage, l'appareil utilise un microprocesseur microprocesseur intégré ou un accélérateur spécialisé, tel qu'un module module NVIDIA Jetson ou un Google Coral Edge TPUexécuter des modèles de ML localement.
Pour fonctionner efficacement sur des appareils aux ressources limitées, les modèles sont souvent soumis à des processus d'optimisation. Des techniques telles que la la quantification du modèle et l 'élagage du modèle réduisent la taille du fichier et la complexité de calcul des réseaux neuronaux sans sacrifier sans sacrifier de manière significative la précision. Cadres optimisés, tels que TensorRT et Intel OpenVINOTensorRT et Intel OpenVINO moteur d'inférence pour accélérer ces modèles sur des sur des architectures matérielles spécifiques.
Bien qu'ils soient souvent utilisés ensemble, il est utile de faire la distinction entre ces deux concepts liés :
Le déploiement de l'Edge AI transforme les industries en permettant des opérations autonomes et des analyses plus intelligentes.
Le déploiement d'un modèle sur un appareil périphérique implique souvent l'exportation d'un modèle formé dans un format indépendant du matériel. L'échange de réseaux neuronaux ONNX (Open Neural Network Exchange) est une norme qui permet aux modèles de fonctionner sur différentes plateformes.
L'exemple suivant montre comment exporter un modèle léger YOLO11 , qui est idéal pour le déploiement en périphérie en raison de sa rapidité et de son efficacité. de sa rapidité et de son efficacité :
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
La mise en œuvre de l'IA en périphérie s'accompagne de défis, principalement en ce qui concerne les ressources limitées en termes de puissance et de mémoire des appareils en périphérie par rapport aux vastes centres de données. par rapport aux vastes centres de données. Les développeurs doivent trouver un équilibre entre la performance du modèle et la consommation d'énergie. systèmes sur puce (SoC ) de sociétés telles que Qualcomm ou Qualcomm ou Ambarella.
À l'avenir, l'intégration des réseaux 5G améliorera encore l'Edge en fournissant la connectivité à grande vitesse nécessaire à la coordination des appareils, connue sous le nom d'intelligence en essaim. En outre, des techniques telles que l'apprentissage fédéré techniques telles que l'apprentissage fédéré permettent aux d'améliorer de manière collaborative les modèles globaux tout en gardant les données brutes décentralisées et privées.