Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Déploiement de modèles

Découvrez les éléments essentiels du déploiement de modèles, transformant les modèles de ML en outils concrets pour les prédictions, l'automatisation et les informations basées sur l'IA.

Le déploiement de modèle est le processus essentiel d'intégration d'un modèle d'apprentissage automatique (ML) entraîné dans un environnement de production en direct où il peut recevoir des entrées et fournir des prédictions. C'est l'étape finale du cycle de vie de l'apprentissage automatique, transformant un fichier de modèle statique en une application fonctionnelle génératrice de valeur. Sans un déploiement efficace, même le modèle le plus précis n'est qu'un exercice académique. L'objectif est de rendre la puissance prédictive du modèle accessible aux utilisateurs finaux, aux applications logicielles ou à d'autres systèmes automatisés de manière fiable et évolutive.

Qu'est-ce que le processus de déploiement ?

Le déploiement d'un modèle implique plus que simplement enregistrer les poids du modèle entraîné. C'est un processus en plusieurs étapes qui garantit que le modèle fonctionne efficacement et de manière fiable dans son environnement cible.

  1. Optimisation du modèle : Avant le déploiement, les modèles sont souvent optimisés pour la vitesse et la taille. Des techniques comme la quantification du modèle et l'élagage du modèle réduisent les ressources de calcul nécessaires à l'inférence en temps réel sans baisse significative de la précision.
  2. Exportation du modèle : Le modèle optimisé est ensuite converti dans un format adapté à la plateforme cible. Les modèles Ultralytics, par exemple, peuvent être exportés vers différents formats comme ONNX, TensorRT et CoreML, ce qui les rend très polyvalents.
  3. Packaging : Le modèle et toutes ses dépendances (telles que des bibliothèques et des frameworks spécifiques) sont regroupés. La conteneurisation à l'aide d'outils comme Docker est une pratique courante, car elle crée un environnement autonome et portable qui garantit que le modèle fonctionne de manière cohérente partout.
  4. Service : Le modèle packagé est déployé sur un serveur ou un appareil où il peut accepter des requêtes via une API. Ce composant, appelé service de modèles, est responsable du traitement des données entrantes et du renvoi des prédictions.
  5. Surveillance : Après le déploiement, une surveillance du modèle continue est essentielle. Cela implique de suivre les métriques de performance, la latence et l'utilisation des ressources pour s'assurer que le modèle fonctionne comme prévu et pour détecter les problèmes tels que la dérive des données.

Environnements de déploiement

Les modèles peuvent être déployés dans divers environnements, chacun ayant ses propres avantages et défis.

  • Plateformes infonuagiques : Les services comme Amazon Web Services (AWS), Google Cloud Platform (GCP) et Microsoft Azure offrent une infrastructure puissante et évolutive pour l’hébergement de modèles complexes.
  • Serveurs sur site : Les organisations ayant des exigences strictes en matière de confidentialité des données ou celles qui ont besoin d'un contrôle total sur leur infrastructure peuvent déployer des modèles sur leurs propres serveurs.
  • Appareils Edge AI : L'Edge AI implique le déploiement de modèles directement sur du matériel local, tel que des smartphones, des drones, des capteurs industriels ou des appareils spécialisés comme le NVIDIA Jetson. Cette approche est idéale pour les applications nécessitant une faible latence d'inférence et des capacités hors ligne.
  • Navigateurs Web: Les modèles peuvent être exécutés directement dans un navigateur Web à l'aide de frameworks comme TensorFlow.js, ce qui permet des expériences d'IA interactives sans traitement côté serveur.

Applications concrètes

  • Contrôle de la qualité de la fabrication : Un modèle Ultralytics YOLO entraîné pour la détection des défauts peut être déployé sur un appareil périphérique dans une usine. Le modèle, optimisé avec TensorRT pour un débit élevé, est intégré à une caméra surplombant une chaîne de montage. Il effectue une détection d'objets en temps réel pour identifier les produits défectueux, signalant instantanément à un bras robotique de les retirer. L'ensemble de ce processus se déroule localement, minimisant les délais du réseau et assurant une action immédiate. Pour plus d'informations, consultez la section sur la façon dont l'IA est appliquée dans la fabrication.
  • Analyse intelligente du commerce de détail : Un modèle de vision par ordinateur pour le comptage et le suivi des personnes est déployé sur des serveurs cloud. Les caméras d'un magasin de détail diffusent des vidéos vers le cloud, où le modèle traite les flux pour générer des cartes thermiques du flux de clients et analyser les habitudes d'achat. L'application est gérée avec Kubernetes pour gérer les charges variables de plusieurs magasins, fournissant des informations précieuses pour la gestion des stocks et l'optimisation de l'agencement du magasin.

Déploiement de Modèle, Service de Modèle et MLOps

Bien qu'étroitement liés, ces termes sont distincts.

  • Déploiement de modèle vs. Service de modèle (Model Serving) : Le déploiement est l'ensemble du processus de bout en bout consistant à prendre un modèle entraîné et à le rendre opérationnel. Le service de modèle (Model Serving) est une composante spécifique du déploiement qui fait référence à l'infrastructure responsable de l'exécution du modèle et de la réponse aux demandes de prédiction, souvent via une API.
  • Déploiement de modèle vs. MLOps : Les opérations d'apprentissage automatique (MLOps) représentent un ensemble étendu de pratiques qui englobent l'ensemble du cycle de vie de l'IA. Le déploiement est une phase critique au sein du framework MLOps, qui comprend également la gestion des données, l'entraînement des modèles, le versionnage, ainsi que la surveillance et le réentraînement continus. Des plateformes comme Ultralytics HUB fournissent un environnement intégré pour gérer l'ensemble de ce flux de travail, de l'entraînement de modèles personnalisés au déploiement et à la surveillance transparents.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers