En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Découvrez pourquoi l'élagage et la quantification sont essentiels pour optimiser les modèles de vision par ordinateur et permettre des performances plus rapides sur les appareils périphériques.
Les appareils Edge sont de plus en plus courants avec les progrès de la technologie. Des montres intelligentes qui suivent votre rythme cardiaque aux drones aériens qui surveillent les rues, les systèmes Edge peuvent traiter les données en temps réel localement au sein de l'appareil lui-même.
Cette méthode est souvent plus rapide et plus sûre que l'envoi de données au cloud, en particulier pour les applications impliquant des données personnelles, telles que la détection de plaques d'immatriculation ou le suivi des gestes. Ce sont des exemples de vision par ordinateur, une branche de l'intelligence artificielle (IA) qui permet aux machines d'interpréter et de comprendre les informations visuelles.
Fig. 1. Exemple de détection de plaques d'immatriculation. (Source)
Cependant, il est important de noter que ces applications nécessitent des modèles de vision IA capables de gérer des calculs lourds, d'utiliser un minimum de ressources et de fonctionner de manière indépendante. La plupart des modèles de vision par ordinateur sont développés pour des systèmes à haute performance, ce qui les rend moins adaptés à un déploiement direct sur des appareils périphériques.
Pour combler cet écart, les développeurs appliquent souvent des optimisations ciblées qui adaptent le modèle pour qu'il fonctionne efficacement sur du matériel plus petit. Ces ajustements sont essentiels pour les déploiements en périphérie en conditions réelles, où la mémoire et la puissance de traitement sont limitées.
Il est intéressant de noter que les modèles de vision artificielle comme Ultralytics YOLO11 sont déjà conçus dans un souci d'efficacité en périphérie, ce qui les rend parfaits pour les tâches en temps réel. Cependant, leurs performances peuvent être encore améliorées grâce à des techniques d'optimisation de modèle telles que l'élagage et la quantification, permettant une inférence encore plus rapide et une utilisation réduite des ressources sur les appareils contraints.
Dans cet article, nous examinerons de plus près ce que sont l'élagage et la quantification, comment ils fonctionnent et comment ils peuvent aider les modèles YOLO à fonctionner dans des déploiements périphériques réels. Commençons !
Élagage et quantification : Techniques de base dans l'optimisation de modèles
Lors de la préparation de modèles d'IA de vision pour un déploiement sur des appareils périphériques, l'un des principaux objectifs est de rendre le modèle léger et fiable sans sacrifier les performances. Cela implique souvent de réduire la taille du modèle et ses exigences de calcul afin qu'il puisse fonctionner efficacement sur du matériel avec une mémoire, une puissance ou une capacité de traitement limitées. Deux façons courantes de le faire sont l'élagage et la quantification.
L'élagage est une technique d'optimisation de modèle d'IA qui contribue à rendre les réseaux neuronaux plus petits et plus efficaces. Dans de nombreux cas, certaines parties d'un modèle, telles que certaines connexions ou certains nœuds, ne contribuent pas beaucoup à ses prédictions finales. L'élagage fonctionne en identifiant et en supprimant ces parties moins importantes, ce qui réduit la taille du modèle et accélère ses performances.
D'un autre côté, la quantification est une technique d'optimisation qui réduit la précision des nombres utilisés par un modèle. Au lieu de s'appuyer sur des nombres à virgule flottante de 32 bits de haute précision, le modèle passe à des formats plus petits et plus efficaces, tels que des entiers de 8 bits. Ce changement contribue à réduire l'utilisation de la mémoire et à accélérer l'inférence, le processus par lequel le modèle fait des prédictions.
Fig. 2. Aperçu de l'élagage et de la quantification. (Source)
Fonctionnement de l’élagage et de la quantification
Maintenant que nous comprenons mieux ce que sont l'élagage et la quantification, examinons comment ils fonctionnent tous les deux.
L'élagage est effectué à l'aide d'un processus appelé analyse de sensibilité. Il identifie les parties des modèles de réseaux neuronaux, telles que certains poids, neurones ou canaux, qui contribuent le moins à la prédiction de sortie finale. Ces parties peuvent être supprimées avec un effet minimal sur la précision. Après l'élagage, le modèle est généralement réentraîné pour affiner ses performances. Ce cycle peut être répété pour trouver le juste équilibre entre sa taille et sa précision.
Parallèlement, la quantification de modèle se concentre sur la façon dont le modèle gère les données. Elle commence par un étalonnage, où le modèle s'exécute sur des données échantillons pour apprendre la plage de valeurs qu'il doit traiter. Ces valeurs sont ensuite converties d'une virgule flottante de 32 bits à des formats de précision inférieure comme les entiers de 8 bits.
Fig 3. La quantification aide à réduire la taille et la complexité du modèle. (Source)
Plusieurs outils sont disponibles pour faciliter l'utilisation de l'élagage et de la quantification dans les projets d'IA du monde réel. La plupart des frameworks d'IA, tels que PyTorch et TensorFlow, incluent une prise en charge intégrée de ces techniques d'optimisation, permettant aux développeurs de les intégrer directement dans le processus de déploiement du modèle.
Une fois qu'un modèle est optimisé, des outils comme ONNX Runtime peuvent aider à l'exécuter efficacement sur diverses plateformes matérielles comme les serveurs, les ordinateurs de bureau et les appareils périphériques. De plus, Ultralytics offre des intégrations qui permettent d'exporter les modèles YOLO dans des formats adaptés à la quantification, ce qui facilite la réduction de la taille du modèle et l'amélioration des performances.
Aperçu de l'optimisation du modèle Ultralytics YOLO
Les modèles Ultralytics YOLO, tels que YOLO11, sont largement reconnus pour leur détection d'objets rapide en une seule étape, ce qui les rend idéaux pour les tâches de Vision IA en temps réel. Ils sont déjà conçus pour être suffisamment légers et efficaces pour un déploiement en périphérie. Cependant, les couches responsables du traitement des caractéristiques visuelles, appelées couches convolutionnelles, peuvent encore exiger une puissance de calcul considérable pendant l'inférence.
Vous vous demandez peut-être : si YOLO11 est déjà optimisé pour une utilisation en périphérie, pourquoi a-t-il besoin d'une optimisation supplémentaire ? En termes simples, tous les appareils périphériques ne sont pas identiques. Certains fonctionnent sur du matériel très minimal, comme de minuscules processeurs embarqués qui consomment moins d'énergie qu'une ampoule LED standard.
Dans ces cas, même un modèle rationalisé comme YOLO11 a besoin d'une optimisation supplémentaire pour garantir des performances fluides et fiables. Des techniques telles que l'élagage et la quantification aident à réduire la taille du modèle et à accélérer l'inférence sans impact significatif sur la précision, ce qui les rend idéales pour ces environnements contraints.
Pour faciliter l'application de ces techniques d'optimisation, Ultralytics prend en charge diverses intégrations qui peuvent être utilisées pour exporter les modèles YOLO dans de multiples formats tels que ONNX, TensorRT, OpenVINO, CoreML et PaddlePaddle. Chaque format est conçu pour bien fonctionner avec des types spécifiques de matériel et d'environnements de déploiement.
Par exemple, ONNX est souvent utilisé dans les flux de travail de quantification en raison de sa compatibilité avec une large gamme d'outils et de plateformes. TensorRT, d'autre part, est hautement optimisé pour les appareils NVIDIA et prend en charge l'inférence à faible précision utilisant INT8, ce qui le rend idéal pour le déploiement à haute vitesse sur les GPU en périphérie.
Cas d'utilisation percutants de l'optimisation du modèle Ultralytics YOLO
Alors que la vision par ordinateur continue de s'étendre à diverses applications du monde réel, les modèles YOLO optimisés permettent d'exécuter des tâches telles que la détection d'objets, la segmentation d'instances et le suivi d'objets sur du matériel plus petit et plus rapide. Ensuite, discutons de quelques cas d'utilisation où l'élagage et la quantification rendent ces tâches de vision par ordinateur plus efficaces et pratiques.
Surveillance intelligente pilotée par YOLO11
De nombreux espaces industriels, ainsi que les espaces publics, dépendent de la surveillance en temps réel pour rester sûrs et sécurisés. Les lieux tels que les stations de transit, les sites de fabrication et les grandes installations extérieures ont besoin de systèmes de Vision IA capables de détecter rapidement et avec précision les personnes ou les véhicules. Souvent, ces lieux fonctionnent avec une connectivité limitée et des contraintes matérielles, ce qui rend difficile le déploiement de grands modèles.
Dans de tels cas, un modèle d'IA de vision optimisé comme YOLO11 est une excellente solution. Sa taille compacte et ses performances rapides le rendent parfait pour fonctionner sur des appareils périphériques à faible consommation d'énergie, tels que les caméras embarquées ou les capteurs intelligents. Ces modèles peuvent traiter les données visuelles directement sur l'appareil, permettant la détection en temps réel des violations de sécurité, des accès non autorisés ou des activités anormales, sans dépendre d'un accès constant au cloud.
Fig. 4. YOLO11 peut être utilisé pour surveiller les lieux publics comme les stations de métro.
Améliorer la sécurité sur les chantiers de construction avec YOLO11
Les chantiers de construction sont des environnements dynamiques et imprévisibles, remplis d'engins lourds, d'ouvriers en mouvement et d'une activité constante. Les conditions peuvent changer rapidement en raison des modifications d'horaires, des déplacements d'équipements ou même des changements soudains de conditions météorologiques. Dans un tel contexte dynamique, la sécurité des travailleurs peut sembler être un défi permanent.
La surveillance en temps réel joue un rôle crucial, mais les systèmes traditionnels reposent souvent sur un accès au cloud ou sur du matériel coûteux qui peut ne pas être pratique sur site. C'est là que des modèles comme YOLO11 peuvent avoir un impact. YOLO11 peut être optimisé pour fonctionner sur de petits appareils périphériques efficaces qui fonctionnent directement sur le site sans avoir besoin d'une connexion Internet.
Par exemple, considérez un grand chantier de construction tel qu'un agrandissement d'autoroute qui s'étend sur plusieurs hectares. Dans ce type d'environnement, le suivi manuel de chaque véhicule ou équipement peut être difficile et prendre beaucoup de temps. Un drone équipé d'une caméra et d'un modèle YOLO11 optimisé peut aider en détectant et en suivant automatiquement les véhicules, en surveillant la circulation et en identifiant les problèmes de sécurité tels que l'accès non autorisé ou la conduite dangereuse.
Fig 5. Analyse d'images de drone provenant d'un chantier de construction.
Avantages et inconvénients de l'élagage et de la quantification dans la vision par ordinateur
Voici quelques avantages clés qu'offrent les méthodes d'optimisation des modèles de vision par ordinateur telles que l'élagage et la quantification :
Déploiement rentable : Des modèles plus petits et plus efficaces peuvent réduire le besoin de matériel haut de gamme coûteux, ce qui rend l'IA plus accessible et évolutive dans différents cas d'utilisation.
Latence réduite : En simplifiant l'architecture du modèle et en réduisant la surcharge de calcul, ces techniques peuvent aider à obtenir des temps de réponse plus rapides dans les applications en temps réel.
Efficacité énergétique : La réduction de la charge de calcul diminue également la consommation d'énergie, ce qui est particulièrement utile pour les systèmes mobiles ou alimentés par batterie.
Bien que l'élagage et la quantification offrent de nombreux avantages, ils s'accompagnent également de certains compromis que les développeurs doivent prendre en compte lors de l'optimisation des modèles. Voici quelques limitations à garder à l'esprit :
Compromis de précision : Si l'élagage est trop agressif ou si une quantification à très faible nombre de bits est utilisée, la précision du modèle, mesurée par des métriques comme la mAP, peut chuter.
Contraintes matérielles : Tous les appareils ne prennent pas en charge de manière égale les formats de plus faible précision comme INT8. Cela peut limiter où et comment un modèle optimisé peut être déployé.
Complexité de l'implémentation : Obtenir de bons résultats nécessite souvent un réglage minutieux et spécifique au modèle. Les développeurs peuvent avoir besoin de réentraîner le modèle et d'effectuer des tests approfondis pour maintenir les performances tout en améliorant l'efficacité.
Principaux points à retenir
L'élagage et la quantification sont des techniques utiles qui aident les modèles YOLO à mieux fonctionner sur les appareils périphériques. Elles réduisent la taille du modèle, diminuent ses besoins en calcul et accélèrent les prédictions, le tout sans perte notable de précision.
Ces méthodes d'optimisation offrent également aux développeurs la possibilité d'ajuster les modèles pour différents types de matériel sans avoir à les reconstruire complètement. Avec quelques réglages et tests, il devient plus facile d'appliquer la Vision IA dans des situations réelles.
Rejoignez notre communauté en pleine croissance ! Explorez notre dépôt GitHub pour en savoir plus sur l'IA. Prêt à démarrer vos projets de vision par ordinateur ? Consultez nos options de licence. Découvrez l'IA dans l'agriculture et Vision AI dans le secteur de la santé en visitant nos pages de solutions !