Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Les 5 meilleurs conseils pour déployer efficacement YOLO26 sur le périphérique et dans le cloud

Découvrez les 5 meilleurs conseils pratiques pour déployer efficacement Ultralytics sur le cloud et en périphérie, du choix du workflow et du format d'exportation appropriés à la quantification.

Le mois dernier, Ultralytics a Ultralytics lancé Ultralytics , établissant ainsi une nouvelle norme pour l'IA visuelle, une branche de l'intelligence artificielle qui permet aux machines d'interpréter et de comprendre les informations visuelles provenant d'images et de vidéos. Plutôt que de simplement capturer des images, les modèles de vision par ordinateur tels queYOLO Ultralytics YOLO prennent en charge des tâches visuelles telles que la détection d'objets, la segmentation d'instances, l'estimation de poses et la classification d'images.

Conçu pour les environnements où la vision par ordinateur est réellement utilisée, à savoir les appareils, les caméras, les robots et les systèmes de production, YOLO26 est un modèle de pointe qui offre une inférence plus rapide du processeur central (CPU), un déploiement simplifié et des performances de bout en bout efficaces dans des environnements réels. Les modèles YOLO26 ont également été conçus pour faciliter le passage des solutions de vision par ordinateur de la phase d'expérimentation à celle de production.

Fig. 1. Le modèle YOLO26 nano offre CPU jusqu'à 43 % plus rapide que YOLO11. (Source)

Le déploiement d'un modèle implique généralement diverses considérations, telles que le choix du matériel approprié, le choix d'un format d'exportation approprié, l'optimisation des performances et la validation des résultats dans des conditions réelles. Grâce au Python Ultralytics , qui rationalise la formation, l'inférence et l'exportation de modèles sur plusieurs cibles de déploiement, il est facile de suivre ces étapes lors du déploiement de YOLO26.

Cependant, même avec des workflows simplifiés, il est essentiel de prendre les bonnes décisions en matière de déploiement. Dans cet article, nous vous présentons cinq conseils pratiques pour vous aider à déployer efficacement YOLO26 dans les environnements périphériques et cloud, afin de garantir des performances fiables et évolutives de l'IA visuelle en production. C'est parti !

Qu'est-ce que le déploiement de modèles en vision par ordinateur ?

Avant de nous plonger dans les stratégies de déploiement pour YOLO26, prenons un peu de recul et comprenons ce que signifie le déploiement d'un modèle dans le domaine de la vision par ordinateur.

Le déploiement d'un modèle consiste à transférer un modèle d'apprentissage profond entraîné depuis un environnement de développement vers une application réelle où il peut traiter de nouvelles images ou de nouveaux flux vidéo et générer des prédictions en continu. Au lieu d'effectuer des expériences sur des ensembles de données statiques, le modèle devient partie intégrante d'un système en temps réel.

En vision par ordinateur, cela implique souvent d'intégrer le modèle à des caméras, des dispositifs d'IA de pointe, des API ou une infrastructure cloud. Il doit fonctionner dans le cadre des contraintes matérielles, répondre aux exigences en matière de latence et maintenir des performances constantes dans des conditions réelles changeantes.

Il est essentiel de comprendre cette transition entre l'expérimentation et la production, car les décisions de déploiement ont un impact direct sur les performances d'un modèle en dehors d'un laboratoire ou d'un environnement expérimental.

Comprendre les workflows de déploiement Ultralytics

Voyons maintenant en quoi consiste concrètement le workflow de déploiement de YOLO26. En termes simples, il s'agit de la séquence d'étapes qui permet de capturer une image, de l'analyser et de la transformer en prédiction.

Dans une configuration classique, une caméra capture une image ou une trame vidéo. Ces données sont ensuite prétraitées, par exemple en les redimensionnant ou en les formatant correctement, avant d'être transmises à Ultralytics pour l'inférence. 

Le modèle analyse les données d'entrée et produit des résultats tels que des cadres de sélection, des masques de segmentation ou des points clés. Ces résultats peuvent ensuite être utilisés pour déclencher des actions, telles que l'envoi d'alertes, la mise à jour d'un tableau de bord ou le guidage d'un système robotique.

L'endroit où ce flux de travail s'exécute dépend de votre stratégie de déploiement. Par exemple, dans un déploiement périphérique, l'inférence s'effectue directement sur l'appareil ou à proximité de la caméra, ce qui contribue à réduire la latence et à améliorer la confidentialité des données. 

Dans le cadre d'un déploiement dans le cloud, les images ou les trames vidéo sont envoyées à des serveurs distants pour y être traitées, ce qui permet une plus grande évolutivité et une gestion centralisée. Certains systèmes utilisent une approche hybride, effectuant un traitement léger en périphérie et les tâches plus lourdes dans le cloud.

Exploration des variantes du modèle YOLO26 

Pour prendre des décisions éclairées en matière de déploiement, il est également important de comprendre qu'il existe différentes variantes du modèle YOLO26 parmi lesquelles choisir.

Prêts à l'emploi, YOLO Ultralytics YOLO sont disponibles en plusieurs tailles, ce qui vous permet de choisir facilement la version qui correspond à vos besoins en matière de matériel et de performances. YOLO26 existe en cinq variantes : Nano (n), Small (s), Medium (m), Large (l) et Extra Large (x). 

Les modèles plus petits, tels que YOLO26n, sont optimisés pour l'efficacité et conviennent parfaitement aux appareils périphériques, aux appareils connectés à l'Internet des objets (IoT), aux systèmes embarqués et aux systèmes alimentés par un CPU, où une faible latence et une consommation d'énergie réduite sont importantes. Ils offrent des performances élevées tout en minimisant l'utilisation des ressources.

Les modèles plus volumineux, tels que YOLO26l et YOLO26x, sont conçus pour offrir une plus grande précision et traiter des scènes plus complexes. Ces variantes fonctionnent généralement mieux sur des systèmes équipés de processeurs graphiques (GPU) ou dans des environnements cloud où davantage de ressources informatiques sont disponibles. 

Le choix de la taille du modèle dépend de vos objectifs de déploiement. Si la vitesse et l'efficacité sur un matériel limité sont vos priorités, une variante plus petite peut être idéale. Si votre application exige une précision maximale et que vous avez accès à un matériel plus puissant, un modèle plus grand peut être le meilleur choix.

Conseils pour déployer efficacement YOLO26

Maintenant que nous comprenons mieux les variantes du modèle YOLO26 et les workflows de déploiement, explorons quelques conseils pratiques pour déployer efficacement YOLO26 dans les environnements périphériques et cloud.

Conseil n° 1 : examinez les options de déploiement de votre modèle

L'une des premières décisions que vous devrez prendre lors du déploiement Ultralytics concerne l'emplacement où le modèle sera exécuté. Votre environnement de déploiement a une incidence directe sur les performances, la latence, la confidentialité et l'évolutivité.

Commencez par évaluer votre flux de travail. Votre application nécessite-t-elle une faible latence, ce qui signifie que les prédictions doivent être générées presque instantanément après la capture d'une image ? 

Par exemple, dans le domaine de la robotique ou des systèmes de sécurité, même de petits retards peuvent affecter les performances. Dans ces cas, un déploiement en périphérie est souvent la meilleure option. L'exécution de l'inférence directement sur un appareil ou à proximité de la caméra réduit le temps nécessaire au traitement des données et évite d'envoyer des images sur Internet, ce qui peut également améliorer la confidentialité.

D'autre part, le déploiement dans le cloud offre une plus grande évolutivité et une puissance de calcul supérieure. Les serveurs cloud peuvent traiter de grands volumes d'images, gérer plusieurs flux vidéo et prendre en charge un débit plus élevé. 

Par exemple, dans le domaine agricole, un agriculteur peut collecter des milliers d'images de feuilles et les analyser par lots afin de déterminer si les cultures présentent des signes de maladie. Dans ce type de scénario, des performances immédiates en temps réel ne sont pas forcément nécessaires, ce qui fait du traitement dans le cloud un choix pratique et évolutif.

Fig. 2. Exemple d'utilisation de YOLO26 pour analyser des images de feuilles.

Cependant, l'envoi de données à des serveurs distants entraîne une latence réseau, c'est-à-dire le délai causé par la transmission d'images sur Internet et la réception des prédictions en retour. Pour les applications qui ne sont pas sensibles au temps, ce compromis peut être acceptable.

Il existe également des options entre le pure edge et le pure cloud. Certaines entreprises utilisent une infrastructure sur site située à proximité de l'endroit où les données sont générées. D'autres construisent des pipelines hybrides, effectuant un filtrage léger en périphérie et envoyant les données sélectionnées vers le cloud pour une analyse plus approfondie.

Le choix de l'option de déploiement appropriée dépend des exigences de votre application. En définissant clairement vos besoins en matière de vitesse, de confidentialité et d'évolutivité, vous pouvez sélectionner une stratégie qui garantit la fiabilité de YOLO26 dans des conditions réelles.

Conseil n° 2 : choisissez le format d'exportation adapté à votre matériel

Une fois que vous avez décidé où votre modèle sera exécuté, l'étape suivante consiste à choisir le format d'exportation approprié. L'exportation d'un modèle consiste à le convertir du format utilisé pendant l'entraînement vers un format optimisé pour le déploiement. 

Les modèles YOLO26 sont nativement construits et entraînés dans PyTorch, mais les environnements de production s'appuient souvent sur des environnements d'exécution spécialisés mieux adaptés à un matériel spécifique. Ces environnements d'exécution sont conçus pour améliorer la vitesse d'inférence, réduire l'utilisation de la mémoire et garantir la compatibilité avec l'appareil cible. 

La conversion de YOLO26 au format approprié lui permet de fonctionner efficacement en dehors de l'environnement d'entraînement. LePython Ultralytics simplifie ce processus. Il prend en charge un large éventail d'intégrations pour la création et le déploiement de projets de vision par ordinateur. 

Si vous souhaitez explorer ces intégrations plus en détail, vous pouvez consulter la Ultralytics officielle Ultralytics . Elle comprend des tutoriels étape par étape, des conseils spécifiques au matériel et des exemples pratiques pour vous aider à passer du développement à la production en toute confiance.

Fig. 3. Ultralytics différentes intégrations (Source)

En particulier, lePython Ultralytics prend en charge l'exportation Ultralytics vers plusieurs formats adaptés à différentes plateformes matérielles. Par exemple, le format ONNX permet une compatibilité multiplateforme, le format TensorRT est optimisé pour NVIDIA et les appareils périphériques NVIDIA , et le format OpenVINO est conçu pour Intel .

Certains appareils prennent en charge plusieurs formats d'exportation, mais les performances peuvent varier en fonction du format choisi. Au lieu de sélectionner un format par défaut, demandez-vous quelle option est la plus efficace pour votre appareil.

Un format peut offrir une inférence plus rapide, tandis qu'un autre peut offrir une meilleure efficacité mémoire ou une intégration plus facile dans votre pipeline existant. C'est pourquoi il est important d'adapter le format d'exportation à votre matériel et à votre environnement de déploiement spécifiques.

Prendre le temps de tester différentes options d'exportation sur votre appareil cible peut faire une différence notable en termes de performances réelles. Un format d'exportation bien adapté permet de garantir que YOLO26 fonctionne de manière efficace, fiable et à la vitesse requise par votre application.

Conseil n° 3 : demandez si votre modèle nécessite une quantification

Après avoir sélectionné un format d'exportation, il est également judicieux de déterminer si votre modèle doit être quantifié. 

La quantification des modèles réduit la précision numérique des poids et des calculs d'un modèle, en les convertissant généralement de 32 bits à virgule flottante vers des formats moins précis, tels que 16 bits ou 8 bits. Cela permet de réduire la taille du modèle, de diminuer l'utilisation de la mémoire et d'améliorer la vitesse d'inférence, en particulier sur les appareils ou les systèmes périphériques alimentés par un CPU.

En fonction de votre matériel, du format d'exportation et des dépendances d'exécution, la quantification peut améliorer sensiblement les performances. Certains environnements d'exécution sont optimisés pour les modèles à faible précision, ce qui leur permet de fonctionner plus rapidement et plus efficacement.

Cependant, la quantification peut légèrement affecter la précision si elle n'est pas appliquée avec soin. Lorsque vous effectuez une quantification post-entraînement, assurez-vous de passer les images de validation. Ces images sont utilisées pendant l'étalonnage pour aider le modèle à s'adapter à une précision moindre et à maintenir des prédictions stables.

Conseil n° 4 : tenir compte de la dérive des données

Même le modèle le mieux entraîné peut perdre en performance au fil du temps en raison de la dérive des données. La dérive des données se produit lorsque les données que votre modèle voit en production sont différentes de celles sur lesquelles il a été entraîné. 

En d'autres termes, le monde réel change, mais votre modèle reste inchangé. Par conséquent, la précision peut progressivement diminuer.

Par exemple, vous pouvez entraîner votre modèle YOLO26 à l'aide d'images capturées pendant la journée. Si ce même modèle est ensuite utilisé la nuit, dans des conditions d'éclairage différentes, ses performances peuvent diminuer. Le même problème peut se produire en cas de changement d'angle de caméra, de conditions météorologiques, d'arrière-plan ou d'apparence des objets. 

La dérive des données est courante dans les systèmes d'IA visuelle du monde réel. Les environnements sont rarement statiques, et de petits changements peuvent affecter la précision de la détection. Pour réduire l'impact de la dérive, vous pouvez vous assurer que votre ensemble de données d'entraînement reflète autant que possible les conditions réelles. 

Incluez des images capturées à différents moments de la journée, dans différentes conditions d'éclairage et dans divers environnements. Après le déploiement, vous pouvez continuer à surveiller les performances et à mettre à jour ou à affiner le modèle si nécessaire.

Conseil n° 5 : Effectuez des tests comparatifs dans des conditions réelles

Avant de déployer complètement votre modèle, vous pouvez le tester dans des conditions réelles.

Fig. 4. Comparaison entre YOLO26 et d'autres modèles (Source)

Il est courant de tester les performances dans des environnements contrôlés à l'aide d'images échantillons ou de petits ensembles de données. Cependant, les systèmes réels se comportent souvent différemment. Les limitations matérielles, les retards réseau, les flux vidéo multiples et les entrées continues peuvent tous affecter les performances.

Le benchmarking consiste à mesurer les performances de votre modèle sur l'appareil et la configuration réels sur lesquels il sera exécuté. Cela inclut la vérification de la vitesse d'inférence, de la latence globale, de l'utilisation de la mémoire et de la stabilité du système. Il est important de tester non seulement le modèle lui-même, mais aussi l'ensemble du pipeline, y compris les étapes de prétraitement et de post-traitement.

Un modèle peut donner de bons résultats lors d'un test sur une seule image, mais rencontrer des difficultés lors du traitement continu d'une vidéo en direct. De même, les performances obtenues sur une machine de développement puissante peuvent ne pas refléter le comportement du modèle sur un appareil périphérique à faible puissance.

En effectuant des tests comparatifs dans des conditions réalistes, vous pouvez identifier rapidement les goulots d'étranglement et apporter des ajustements avant la mise en service. Les tests effectués dans le même environnement que celui dans lequel YOLO26 fonctionnera permettent de garantir des performances fiables, stables et cohérentes en production.

Autres considérations clés relatives au déploiement du modèle

Voici quelques facteurs supplémentaires à prendre en compte lors du déploiement de YOLO26 :

  • Surveillance et journalisation: configurez des outils de surveillance pour track tels que la latence, la précision et l'état du système après le déploiement.
  • Sécurité et confidentialité: mettre en place des mesures de protection pour protéger les données visuelles sensibles, en particulier lors de l'utilisation d'une infrastructure cloud ou distante.
  • Optimisation des goulots d'étranglement du pipeline: évaluez l'ensemble du pipeline, y compris les modules tels que le prétraitement, l'inférence, le post-traitement et le transfert de données, car des retards peuvent survenir en dehors du modèle lui-même.
  • Planification de l'évolutivité: planifiez votre croissance à l'avance en vous assurant que votre système peut gérer une augmentation du trafic, l'ajout de caméras ou l'augmentation de la charge de travail.

Principaux points à retenir

Pour déployer efficacement YOLO26, il faut d'abord comprendre où votre modèle sera exécuté et ce dont votre application a réellement besoin. En choisissant la bonne approche de déploiement, en adaptant le format d'exportation à votre matériel et en testant les performances dans des conditions réelles, vous pouvez créer des systèmes d'IA visuelle fiables et réactifs. Avec une configuration adéquate, Ultralytics facilite la mise en œuvre d'une vision par ordinateur rapide et prête à l'emploi à la périphérie et dans le cloud.

Rejoignez notre communauté et explorez notre référentiel GitHub. Consultez nos pages Solutions pour découvrir diverses applications telles que l'IA dans l'agriculture et la vision par ordinateur dans le domaine de la santé. Découvrez nos options de licence et lancez-vous dès aujourd'hui avec Vision AI !

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement