Apprends l'essentiel du service de modèles - déploie des modèles d'IA pour des prédictions en temps réel, l'évolutivité et l'intégration transparente dans les applications.
Une fois qu'un modèle de Machine Learning (ML) est formé et validé, l'étape critique suivante consiste à le rendre disponible pour générer des prédictions sur de nouvelles données. Ce processus est connu sous le nom de Model Serving. Il consiste à déployer un modèle entraîné dans un environnement de production, généralement derrière un point de terminaison API (Application Programming Interface), ce qui permet aux applications ou à d'autres systèmes de demander des prédictions en temps réel. Le service de modèle sert de pont entre le modèle développé et son application pratique, le transformant d'un fichier statique en un service actif et générateur de valeur au sein du cycle de vie plus large de l'apprentissage automatique.
Le service de modèle est fondamental pour rendre opérationnels les modèles de ML. Sans cela, même les modèles les plus précis, comme les modèles de pointe. Ultralytics YOLO restent isolés dans des environnements de développement, incapables d'avoir un impact sur les processus du monde réel. Un service de modèle efficace garantit que les connaissances et les capacités d'automatisation développées pendant la formation sont accessibles et utilisables. Il permet une inférence en temps réel, ce qui permet aux applications de répondre dynamiquement aux nouvelles données, ce qui est crucial pour des tâches allant de la détection d'objets dans les vidéos au traitement du langage naturel (NLP) dans les chatbots. En fin de compte, le service de modèle est essentiel pour réaliser le retour sur investissement (ROI) des initiatives d'IA.
Bien qu'il soit souvent utilisé de manière interchangeable, le service de modèle est techniquement un composant spécifique du processus plus large de déploiement de modèle. Le déploiement de modèles englobe toutes les étapes nécessaires pour prendre un modèle formé et le rendre opérationnel dans un environnement de production en direct, y compris l'emballage, la configuration de l'infrastructure, l'intégration et la surveillance. Le service de modèle se concentre spécifiquement sur l'infrastructure et la couche logicielle qui héberge le modèle et traite les demandes de prédiction entrantes, en rendant les fonctionnalités du modèle disponibles en tant que service, souvent via des protocoles de réseau tels que REST ou gRPC. Pour plus de détails, consulte notre guide sur les options de déploiement de modèles.
Le service de modèle permet d'innombrables fonctionnalités pilotées par l'IA avec lesquelles nous interagissons quotidiennement. En voici deux exemples :
La mise en place d'un système de desserte de modèle robuste implique que plusieurs éléments travaillent ensemble :
Des plateformes comme Ultralytics HUB visent à simplifier l'ensemble de ce flux de travail, en offrant des solutions intégrées pour la formation, le versionnage, le déploiement et le service des modèles de vision par ordinateur, en s'alignant sur les meilleures pratiques MLOps (Machine Learning Operations). Les considérations clés comprennent l'évolutivité pour gérer les changements de charge, la sécurité(sécurité des données) et la maintenabilité.