En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Comprendre comment le nouveau modèle Ultralytics YOLO11 peut être utilisé pour la segmentation d'instances afin d'obtenir une plus grande précision dans des applications telles que la gestion des déchets et la surveillance des torchères.
La vision par ordinateur, un domaine de l'intelligence artificielle (IA) qui aide les machines à interpréter et à comprendre les informations visuelles, permet des tâches telles que la segmentation d'instance. La segmentation d'instance peut être utilisée pour analyser une image ou une trame vidéo afin de marquer les limites exactes de chaque objet distinct dans l'image, même lorsque plusieurs objets du même type sont présents. Grâce à son niveau élevé de précision, la segmentation d'instance a un large éventail d'applications, allant de l'aide aux voitures autonomes pour détecter les obstacles sur la route à l'identification des tumeurs dans les scanners médicaux.
Fig 1. Un exemple d'utilisation du modèle Ultralytics YOLO11 pour la segmentation d'instance.
Dans cet article, nous allons explorer la segmentation d'instance, en quoi elle diffère des autres tâches de vision par ordinateur comme la segmentation sémantique, et discuter de certaines de ses applications. Nous verrons également comment utiliser le modèle de segmentation d'instance YOLO11 à l'aide du package Ultralytics Python et de la plateforme Ultralytics HUB. Commençons !
Qu'est-ce que la segmentation d'instance ?
La segmentation d'instance peut être utilisée pour identifier des objets dans une image et les délimiter au niveau du pixel. Le processus implique généralement d'abord la détection d'objets et le traçage de boîtes englobantes autour de ceux-ci. Ensuite, un algorithme de segmentation classe chaque pixel à l'intérieur de la boîte englobante pour créer un masque précis pour chaque objet.
La segmentation d'instance est également différente des tâches telles que la segmentation sémantique et la segmentation panoptique. La segmentation sémantique étiquette chaque pixel en fonction de la catégorie générale d'un objet, sans distinguer les instances individuelles. La segmentation panoptique, quant à elle, combine la segmentation d'instance et la segmentation sémantique en étiquetant chaque pixel avec une classe et un ID d'instance, identifiant ainsi les objets individuels dans chaque catégorie.
Fig 2. Utilisation de YOLO11 pour détecter et segmenter une personne et un chien.
Les capacités de la segmentation d'instance peuvent être appliquées dans divers scénarios qui peuvent nécessiter différents modèles. Par exemple, un modèle léger peut être idéal pour le traitement en temps réel dans les applications mobiles, tandis qu'un modèle plus complexe pourrait être utilisé pour des tâches de haute précision comme le contrôle qualité dans la fabrication.
Comme les modèles précédents, le modèle de segmentation d'instance YOLO11 est également disponible en plusieurs variantes en fonction de vos besoins. Ces variantes incluent YOLO11n-seg (Nano), YOLO11s-seg (Small), YOLO11m-seg (Medium), YOLO11l-seg (Large) et YOLO11x-seg (Extra Large). Ces modèles varient en termes de taille, de vitesse de traitement, de précision et de quantité de puissance de calcul dont ils ont besoin. En fonction de vos besoins spécifiques, vous pouvez choisir le modèle qui convient le mieux à votre application.
Applications de segmentation d'instance pour YOLO11
Les capacités avancées de segmentation d'instance de YOLO11 ouvrent un éventail d'applications dans divers secteurs. Examinons de plus près certaines de ces applications.
Utilisation de la segmentation YOLO11 dans l'industrie pétrolière et gazière
L'extraction de pétrole et de gaz implique la gestion de fluctuations de pression extrêmement élevées. Des techniques comme le torchage du gaz aident à brûler le gaz naturel produit lors de l'extraction du pétrole. Ceci est nécessaire pour des raisons de sécurité. Par exemple, dans l'extraction de pétrole brut, un pic de pression soudain ou important pourrait entraîner une explosion. Bien que rares, les accidents industriels dans le secteur de la fabrication de pétrole et de gaz peuvent entraîner des incendies intenses difficiles à contenir et à contrôler. Le torchage du gaz aide les opérateurs à dépressuriser en toute sécurité les équipements et à gérer les fluctuations de pression importantes et imprévisibles en brûlant l'excès de gaz.
Les systèmes d'IA peuvent améliorer ce processus de surveillance, et le risque d'accidents peut être réduit en utilisant un système de surveillance des torchères basé sur la segmentation d'instance. La surveillance du torchage du gaz est également importante pour des raisons environnementales, car un torchage excessif peut avoir un impact négatif sur l'environnement.
Les modèles de segmentation d'instance Ultralytics YOLO11 peuvent être utilisés pour surveiller la quantité de feu et de fumée causée par le torchage. La superficie en pixels du flare et de la fumée détectés et segmentés peut être calculée. Grâce à ces informations, les opérateurs peuvent obtenir des informations en temps réel sur le flare et la fumée causés par le torchage, ce qui les aide à prévenir les accidents et les impacts environnementaux négatifs.
Fig 3. Un exemple de surveillance des torchères à l'aide de YOLO11 dans la fabrication pétrolière et gazière.
Segmentation d'instance avec YOLO11 pour la gestion des déchets plastiques
Les travailleurs des installations de gestion des déchets et de recyclage peuvent utiliser des systèmes basés sur la segmentation d'instances YOLO11 pour identifier les déchets plastiques. YOLO11 peut être intégré à des systèmes de tri robotisés pour identifier avec précision différents matériaux de déchets, comme le carton et le plastique (qui doivent être traités séparément). C'est particulièrement important si l'on considère que sur les 7 milliards de tonnes de déchets plastiques produits dans le monde, seuls 10 % environ sont recyclés.
L'automatisation de l'identification et du tri des déchets plastiques réduit considérablement le temps nécessaire par rapport aux méthodes traditionnelles, où les travailleurs trient les articles à la main. Les modèles de vision par ordinateur peuvent même segmenter les plastiques souples comme les emballages et les sacs, qui sont particulièrement difficiles à traiter car ils s'emmêlent souvent. Les modèles YOLO11 peuvent également être entraînés sur mesure pour segmenter différents types de plastiques. Nous en apprendrons davantage sur la façon dont vous pouvez entraîner sur mesure un modèle YOLO11 dans les sections suivantes.
Fig. 4. Identification des déchets plastiques à l'aide d'Ultralytics YOLO11.
Segmentation YOLO11 dans les véhicules autonomes
Un autre cas d'utilisation intéressant de la segmentation d'instance se trouve dans les voitures autonomes. YOLO11 permet aux voitures autonomes d'améliorer la sécurité des passagers et la sécurité des autres usagers de la route en reconnaissant avec précision les objets au niveau du pixel. Le système de caméra embarqué de la voiture peut capturer des images de l'environnement et les analyser à l'aide de YOLO11 et de la segmentation d'instance. Chaque objet (piétons, feux de circulation, autres véhicules, etc.) dans l'image est segmenté et reçoit une étiquette. Un tel niveau de précision donne aux voitures autonomes la capacité d'identifier chaque objet autour d'elles.
Fig 5. Utilisation de YOLO11 et de la segmentation d'instance pour identifier les véhicules et les piétons sur la route.
Essayer la segmentation d'instance avec le modèle YOLO11
Maintenant que nous avons exploré la segmentation d'instance et discuté de certaines de ses applications, voyons comment vous pouvez l'essayer en utilisant le modèle Ultralytics YOLO11.
Il existe deux façons de procéder : vous pouvez utiliser le paquet Python Ultralytics ou le HUB Ultralytics. Nous allons explorer les deux, en commençant par le paquet Python.
Exécution d'inférences en utilisant YOLO11
L'exécution d'une inférence implique l'utilisation du modèle pour analyser de nouvelles données, jamais vues auparavant. Pour exécuter une inférence en utilisant le modèle de segmentation d'instance YOLO11 via le code, nous devons installer le package Python Ultralytics en utilisant pip, conda ou docker. Si vous rencontrez des problèmes lors de l'installation, vous pouvez consulter notre Guide des problèmes courants pour obtenir de l'aide au dépannage. Une fois le package installé, vous pouvez exécuter le code ci-dessous pour charger le modèle de segmentation d'instance YOLO11 et exécuter des prédictions sur une image.
Fig 6. Exécution d'une inférence sur une image à l'aide de YOLO11n-seg.
Entraînement d'un modèle YOLO11 personnalisé
Avec la même configuration de code, vous pouvez également entraîner un modèle YOLO11 personnalisé. En affinant un modèle YOLO11, vous pouvez créer une version personnalisée du modèle qui répond mieux aux exigences de votre projet spécifique. Par exemple, les détaillants peuvent utiliser un modèle personnalisé pour segmenter avec précision les caractéristiques physiques d'un client afin de recommander des vêtements qui lui vont bien. L'extrait de code ci-dessous montre comment charger et entraîner un modèle YOLO11 pour la segmentation d'instance. Vous pouvez partir d'une configuration YAML ou d'un modèle pré-entraîné, transférer les poids et vous entraîner sur un ensemble de données comme COCO pour obtenir une segmentation efficace.
Une fois terminé, vous pouvez effectuer des inférences à l'aide du modèle personnalisé pour vos applications spécifiques. En utilisant l'option d'exportation, vous pouvez également exporter votre modèle personnalisé vers un format différent.
Segmentation d'instance YOLO11 sur Ultralytics HUB
Maintenant que nous avons exploré l'exécution d'inférences et l'entraînement personnalisé d'un modèle de segmentation d'instance YOLO11 via le code, examinons une alternative sans code : Ultralytics HUB. Ultralytics HUB est une plateforme de Vision IA intuitive qui simplifie le processus d'entraînement et de déploiement des modèles YOLO, y compris les modèles de segmentation d'instance YOLO11.
Pour exécuter l'inférence sur des images, il vous suffit de créer un compte, d'aller dans la section « Modèles » et de sélectionner la variante du modèle de segmentation d'instance YOLO11 de votre choix. Vous pouvez télécharger une image et afficher les résultats de la prédiction dans la section d'aperçu, comme indiqué ci-dessous.
Fig 7. Exécution d'inférences sur Ultralytics HUB.
Principaux points à retenir
YOLO11 offre des capacités de segmentation d'instance fiables qui ouvrent un monde de possibilités dans divers secteurs. De l'amélioration de la sécurité dans les véhicules autonomes et de la surveillance du torchage des gaz dans le secteur pétrolier et gazier à l'automatisation du tri des déchets dans les installations de recyclage, la précision au niveau du pixel de YOLO11 le rend idéal pour les tâches de segmentation complexes.
Avec des options de formation personnalisée via le package Python Ultralytics et une configuration sans code via Ultralytics HUB, les utilisateurs peuvent intégrer de manière transparente YOLO11 dans leurs flux de travail. Que ce soit pour des applications industrielles, les soins de santé, le commerce de détail ou la surveillance environnementale, YOLO11 apporte flexibilité et précision pour répondre à divers besoins de segmentation.