Opérations d'apprentissage automatique (MLOps)
Découvrez la puissance de MLOps : rationalisez le déploiement des modèles ML, automatisez les flux de travail, assurez la fiabilité et mettez à l'échelle le succès de l'IA de manière efficace.
Le Machine Learning Operations (MLOps) est un ensemble de pratiques, de principes et de technologies qui rationalise le processus
de passage des modèles d'apprentissage automatique (ML) du
développement expérimental au déploiement fiable en production. En combinant la nature exploratoire de la science des données avec la
discipline rigoureuse du DevOps, le MLOps vise à unifier le cycle de publication des
applications d'intelligence artificielle (IA).
Alors que le développement logiciel traditionnel se concentre principalement sur la gestion des versions de code, le MLOps introduit la
complexité supplémentaire de la gestion de données à grande échelle et de l'évolution des comportements des modèles. Cette approche holistique garantit que les
systèmes d'IA restent évolutifs, précis et gouvernés tout au long de leur cycle de vie.
Piliers fondamentaux du cycle de vie MLOps
Une stratégie MLOps robuste répond aux défis uniques du machine learning en établissant des pipelines continus pour les
données, la formation et le déploiement. Ces flux de travail automatisés réduisent les erreurs manuelles et améliorent la
reproductibilité dans le domaine scientifique, permettant aux
équipes de retracer exactement comment une version spécifique du modèle a été générée.
-
Ingénierie des track
et gestion des versions : avant le début de la formation,
le prétraitement et le nettoyage des données sont essentiels
pour garantir des entrées de haute qualité. Les cadres MLOps mettent l'accent sur la gestion des versions des ensembles de données parallèlement au code, en utilisant souvent des outils tels que
DVC (Data Version Control) pour traiter les fichiers binaires volumineux. Cela permet aux équipes de suivre
les changements dans les données d'entraînement au fil du temps, garantissant ainsi que
tout modèle peut être réentraîné sur le même ensemble de données que celui utilisé précédemment.
-
Formation continue et suivi des expériences : les scientifiques des données réalisent des centaines d'expériences afin de trouver
la configuration optimale
de réglage des hyperparamètres. Les outils MLOps
automatisent ce processus en enregistrant les métriques, les
pondérations des modèles et les paramètres. L'utilisation de solutions telles que
la Ultralytics facilite cette tâche en fournissant un tableau de bord centralisé
permettant de comparer les exécutions et de sélectionner la plus performante.
-
Déploiement et utilisation du modèle : une fois validé, un modèle doit être conditionné pour la production. Cela implique souvent
une conteneurisation à l'aide de technologies
telles que Docker afin de créer des environnements isolés. Les modèles
peuvent être déployés sur des serveurs cloud pour un traitement par lots à haut débit ou convertis dans des formats tels que
ONNX pour une exécution efficace sur des
dispositifs d'IA de pointe.
-
Surveillance et observabilité : après le déploiement, le travail opérationnel se poursuit avec la
surveillance des modèles. Contrairement aux logiciels statiques, les modèles ML
se dégradent à mesure que les données du monde réel changent, un phénomène connu sous le nom de
dérive des données. Des pipelines d'observabilité efficaces detect
ces changements et déclenchent des boucles de réentraînement automatisées afin de maintenir la
précision.
Applications concrètes
MLOps est l'épine dorsale de l'IA d'entreprise moderne, permettant aux entreprises de passer de manière fiable d'un seul modèle à des milliers de
terminaux déployés.
-
Maintenance prédictive dans le secteur manufacturier : les usines utilisent la
vision par ordinateur pour identifier les défauts sur les
chaînes de montage. Un pipeline MLOps garantit que, à mesure que de nouvelles gammes de produits sont introduites, les
modèles de détection d'objets sont réentraînés avec de nouvelles
images, versionnés et automatiquement déployés sur les périphériques de pointe de l'usine sans temps d'arrêt. Cela garantit que le
contrôle qualité
reste cohérent même lorsque les conditions de fabrication changent.
-
Gestion intelligente des stocks dans le commerce de détail : les détaillants déploient des caméras pour track les stocks track . L'éclairage des magasins et les
emballages des produits changeant fréquemment, la dérive des modèles est un
risque constant. Les systèmes MLOps surveillent les
scores de confiance; si la confiance baisse, le système
signale les images à annoter et lance un cycle de réentraînement sur le cloud, poussant un modèle mis à jour vers les magasins afin de
maintenir la gestion automatisée des stocks.
Mise en œuvre de MLOps avec Ultralytics
Une étape cruciale dans tout workflow MLOps est le
suivi des expériences. Cela garantit que chaque
session de formation est enregistrée avec sa configuration spécifique, ce qui permet aux équipes de reproduire les résultats ou de revenir à des versions précédentes
si nécessaire.
L'exemple suivant montre comment former un
modèle YOLO26 (le dernier modèle de pointe d'
Ultralytics pour tous les nouveaux projets) tout en activant le suivi de projet. Cela crée naturellement les artefacts
nécessaires à un pipeline de production.
from ultralytics import YOLO
# Load the YOLO26 model (recommended for superior speed and accuracy)
model = YOLO("yolo26n.pt")
# Train the model while specifying project and name for organized logging
# This creates a structured directory of artifacts (weights, charts, args)
# which is essential for reproducibility in MLOps pipelines.
results = model.train(data="coco8.yaml", epochs=10, project="mlops_experiments", name="run_v1")
En organisant des sessions de formation dans le cadre de projets spécifiques, les équipes peuvent facilement intégrer des outils tels que
MLflow ou
TensorBoard pour visualiser les indicateurs de performance au fil du
temps. À mesure que les organisations se développent, elles migrent souvent ces flux de travail vers Ultralytics , qui fournit une interface unifiée pour gérer les
ensembles de données, former à distance et déployer des modèles dans divers formats tels que
TensorRT pour une vitesse d'inférence optimisée.
MLOps et concepts connexes
Pour mettre en œuvre efficacement ces pratiques, il est important de distinguer le MLOps des termes connexes dans l'écosystème.
-
MLOps vs DevOps : DevOps se concentre sur la
livraison continue d'applications logicielles. MLOps étend ces principes en ajoutant les « données » et les
« modèles » comme éléments à part entière. Dans DevOps, une modification du code déclenche une compilation ; dans MLOps, une modification dans la distribution des données
ou une baisse de précision peut également déclencher une
nouvelle exécution du pipeline.
-
MLOps vs. Model Serving :
Le Model Serving désigne spécifiquement l'
infrastructure utilisée pour héberger un modèle et traiter les
demandes d'inférence. Le MLOps est un concept plus large
qui englobe le Model Serving, mais inclut également les phases de formation, de gouvernance et de surveillance.
-
MLOps vs AutoML :
L'apprentissage automatique (AutoML)
se concentre sur l'automatisation du processus de création de modèles (par exemple, la sélection d'algorithmes). MLOps gère le cycle de vie de ce
modèle après sa création et opérationnalise le pipeline qui exécute les outils AutoML.