Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Opérations d'apprentissage automatique (MLOps)

Découvrez la puissance de MLOps : rationalisez le déploiement des modèles ML, automatisez les flux de travail, assurez la fiabilité et mettez à l'échelle le succès de l'IA de manière efficace.

Le Machine Learning Operations (MLOps) est un ensemble de pratiques, de principes et de technologies qui rationalise le processus de passage des modèles d'apprentissage automatique (ML) du développement expérimental au déploiement fiable en production. En combinant la nature exploratoire de la science des données avec la discipline rigoureuse du DevOps, le MLOps vise à unifier le cycle de publication des applications d'intelligence artificielle (IA). Alors que le développement logiciel traditionnel se concentre principalement sur la gestion des versions de code, le MLOps introduit la complexité supplémentaire de la gestion de données à grande échelle et de l'évolution des comportements des modèles. Cette approche holistique garantit que les systèmes d'IA restent évolutifs, précis et gouvernés tout au long de leur cycle de vie.

Piliers fondamentaux du cycle de vie MLOps

Une stratégie MLOps robuste répond aux défis uniques du machine learning en établissant des pipelines continus pour les données, la formation et le déploiement. Ces flux de travail automatisés réduisent les erreurs manuelles et améliorent la reproductibilité dans le domaine scientifique, permettant aux équipes de retracer exactement comment une version spécifique du modèle a été générée.

  • Ingénierie des track et gestion des versions : avant le début de la formation, le prétraitement et le nettoyage des données sont essentiels pour garantir des entrées de haute qualité. Les cadres MLOps mettent l'accent sur la gestion des versions des ensembles de données parallèlement au code, en utilisant souvent des outils tels que DVC (Data Version Control) pour traiter les fichiers binaires volumineux. Cela permet aux équipes de suivre les changements dans les données d'entraînement au fil du temps, garantissant ainsi que tout modèle peut être réentraîné sur le même ensemble de données que celui utilisé précédemment.
  • Formation continue et suivi des expériences : les scientifiques des données réalisent des centaines d'expériences afin de trouver la configuration optimale de réglage des hyperparamètres. Les outils MLOps automatisent ce processus en enregistrant les métriques, les pondérations des modèles et les paramètres. L'utilisation de solutions telles que la Ultralytics facilite cette tâche en fournissant un tableau de bord centralisé permettant de comparer les exécutions et de sélectionner la plus performante.
  • Déploiement et utilisation du modèle : une fois validé, un modèle doit être conditionné pour la production. Cela implique souvent une conteneurisation à l'aide de technologies telles que Docker afin de créer des environnements isolés. Les modèles peuvent être déployés sur des serveurs cloud pour un traitement par lots à haut débit ou convertis dans des formats tels que ONNX pour une exécution efficace sur des dispositifs d'IA de pointe.
  • Surveillance et observabilité : après le déploiement, le travail opérationnel se poursuit avec la surveillance des modèles. Contrairement aux logiciels statiques, les modèles ML se dégradent à mesure que les données du monde réel changent, un phénomène connu sous le nom de dérive des données. Des pipelines d'observabilité efficaces detect ces changements et déclenchent des boucles de réentraînement automatisées afin de maintenir la précision.

Applications concrètes

MLOps est l'épine dorsale de l'IA d'entreprise moderne, permettant aux entreprises de passer de manière fiable d'un seul modèle à des milliers de terminaux déployés.

  1. Maintenance prédictive dans le secteur manufacturier : les usines utilisent la vision par ordinateur pour identifier les défauts sur les chaînes de montage. Un pipeline MLOps garantit que, à mesure que de nouvelles gammes de produits sont introduites, les modèles de détection d'objets sont réentraînés avec de nouvelles images, versionnés et automatiquement déployés sur les périphériques de pointe de l'usine sans temps d'arrêt. Cela garantit que le contrôle qualité reste cohérent même lorsque les conditions de fabrication changent.
  2. Gestion intelligente des stocks dans le commerce de détail : les détaillants déploient des caméras pour track les stocks track . L'éclairage des magasins et les emballages des produits changeant fréquemment, la dérive des modèles est un risque constant. Les systèmes MLOps surveillent les scores de confiance; si la confiance baisse, le système signale les images à annoter et lance un cycle de réentraînement sur le cloud, poussant un modèle mis à jour vers les magasins afin de maintenir la gestion automatisée des stocks.

Mise en œuvre de MLOps avec Ultralytics

Une étape cruciale dans tout workflow MLOps est le suivi des expériences. Cela garantit que chaque session de formation est enregistrée avec sa configuration spécifique, ce qui permet aux équipes de reproduire les résultats ou de revenir à des versions précédentes si nécessaire.

L'exemple suivant montre comment former un modèle YOLO26 (le dernier modèle de pointe d' Ultralytics pour tous les nouveaux projets) tout en activant le suivi de projet. Cela crée naturellement les artefacts nécessaires à un pipeline de production.

from ultralytics import YOLO

# Load the YOLO26 model (recommended for superior speed and accuracy)
model = YOLO("yolo26n.pt")

# Train the model while specifying project and name for organized logging
# This creates a structured directory of artifacts (weights, charts, args)
# which is essential for reproducibility in MLOps pipelines.
results = model.train(data="coco8.yaml", epochs=10, project="mlops_experiments", name="run_v1")

En organisant des sessions de formation dans le cadre de projets spécifiques, les équipes peuvent facilement intégrer des outils tels que MLflow ou TensorBoard pour visualiser les indicateurs de performance au fil du temps. À mesure que les organisations se développent, elles migrent souvent ces flux de travail vers Ultralytics , qui fournit une interface unifiée pour gérer les ensembles de données, former à distance et déployer des modèles dans divers formats tels que TensorRT pour une vitesse d'inférence optimisée.

MLOps et concepts connexes

Pour mettre en œuvre efficacement ces pratiques, il est important de distinguer le MLOps des termes connexes dans l'écosystème.

  • MLOps vs DevOps : DevOps se concentre sur la livraison continue d'applications logicielles. MLOps étend ces principes en ajoutant les « données » et les « modèles » comme éléments à part entière. Dans DevOps, une modification du code déclenche une compilation ; dans MLOps, une modification dans la distribution des données ou une baisse de précision peut également déclencher une nouvelle exécution du pipeline.
  • MLOps vs. Model Serving : Le Model Serving désigne spécifiquement l' infrastructure utilisée pour héberger un modèle et traiter les demandes d'inférence. Le MLOps est un concept plus large qui englobe le Model Serving, mais inclut également les phases de formation, de gouvernance et de surveillance.
  • MLOps vs AutoML : L'apprentissage automatique (AutoML) se concentre sur l'automatisation du processus de création de modèles (par exemple, la sélection d'algorithmes). MLOps gère le cycle de vie de ce modèle après sa création et opérationnalise le pipeline qui exécute les outils AutoML.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant