En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Découvrez tout ce qu'il faut savoir sur l'annotation d'images avec Ultralytics et ses outils intégrés pour l'étiquetage des ensembles de données, la gestion des annotations et la préparation des données pour les modèles.
Développez vos projets de vision par ordinateur avec Ultralytics
Ultralytics a Ultralytics lancé Ultralytics , un environnement conçu pour prendre en charge l'ensemble du cycle de vie du développement en vision par ordinateur. Cette plateforme centralise les outils utilisés pour gérer les différentes étapes des flux de travail liés à l'IA en vision, notamment la préparation des ensembles de données, l'annotation d'images et de vidéos, l'entraînement des modèles et leur déploiement.
Malgré une adoption croissante dans des secteurs tels que la conduite autonome et la santé, le développement de solutions de vision par ordinateur peut encore être considéré comme un processus fragmenté. L'une des principales raisons tient au fait que les modèles de vision par ordinateur dépendent fortement de la qualité des données sur lesquelles ils sont entraînés. Avant même que l'entraînement ne commence, les ensembles de données doivent être créés, organisés, vérifiés et annotés afin que le modèle puisse apprendre ce qu'il doit detect reconnaître.
Lorsqu'on travaille avec des données visuelles, ce processus est appelé « annotation de données » ou « annotation d'images ». Lors de l'annotation d'images, certaines parties spécifiques d'une image sont marquées et associées à des étiquettes qui guident le modèle pendant l'apprentissage.
Par exemple, si l'objectif est de detect sur des images, les annotateurs peuvent tracer des cadres de sélection autour de chaque chien pour indiquer où ils apparaissent. Dans le cadre de tâches plus complexes, ils peuvent délimiter la silhouette du chien à l'aide de masques de segmentation ou marquer des points clés pour rendre compte de sa posture. Ces exemples étiquetés ont une influence directe sur les performances du modèle une fois celui-ci déployé.
La gestion des processus d'annotation d'images à grande échelle peut s'avérer complexe. Les grands ensembles de données nécessitent souvent des normes d'étiquetage cohérentes, une collaboration entre plusieurs annotateurs et des outils facilitant la vérification et l'affinement des annotations.
Ultralytics intègre un éditeur d'annotation. Elle prend en charge plusieurs types de tâches d'annotation et offre aux équipes un moyen plus simple d'étiqueter les données et de préparer des ensembles de données pour la vision par ordinateur au sein d'un seul flux de travail.
Fig. 1. Aperçu de l'éditeur d'annotations de Ultralytics (Source)
Dans cet article, nous allons voir comment l'éditeur d'annotations Ultralytics aide les équipes à annoter efficacement leurs ensembles de données et à rationaliser la préparation des données. C'est parti !
Annotation de données en vision par ordinateur
Avant de découvrir les outils d'annotation d'images disponibles sur Ultralytics , prenons un peu de recul pour comprendre ce qu'est l'annotation de données et pourquoi elle est importante dans la mise au point de systèmes de vision par ordinateur.
Les modèles de vision par ordinateur apprennent en analysant de vastes collections d'images ou de vidéos, appelées « ensembles de données ». Cependant, les images brutes ne fournissent pas à elles seules suffisamment d'informations pour qu'un modèle comprenne ce qu'il doit detect reconnaître. Pour que ces données soient utiles à l'entraînement, les images doivent être annotées afin que le modèle puisse apprendre à identifier les objets, les formes ou les motifs qu'il doit rechercher.
Lors de l'annotation d'images, certains éléments spécifiques d'une image sont mis en évidence et associés à des étiquettes qui décrivent ce que le modèle doit apprendre. Ces exemples étiquetés guident les modèles et les algorithmes d'apprentissage profond pendant l'entraînement et les aident à reconnaître des motifs similaires lors du traitement de nouvelles images.
Les différentes tâches de vision par ordinateur nécessitent différents types d'annotation d'images, en fonction de l'application et du cas d'utilisation. Par exemple, les annotateurs peuvent tracer des cadres de sélection autour d'objets pour la détection d'objets, délimiter des zones dans une image pour la segmentation sémantique, définir des points clés pour l'estimation de la pose, ou attribuer des étiquettes à l'ensemble d'une image pour la classification.
Gestion et préparation des données
La préparation des données pour les projets de vision par ordinateur implique souvent de travailler avec divers formats de fichiers et d'organiser les ensembles de données. Elle consiste également à s'assurer que tout est prêt pour l'annotation et l'entraînement des algorithmes d'apprentissage automatique. Dans de nombreux flux de travail, ce processus est réparti entre plusieurs outils : les données doivent être téléchargées, nettoyées et transférées d'un système à l'autre avant de pouvoir être utilisées.
Ultralytics simplifie ce processus en gérant la préparation des données, l'entraînement des modèles et le déploiement au sein d'un environnement unique. Les équipes peuvent télécharger des images, des vidéos ou des archives de jeux de données, et bénéficier d'une approche entièrement personnalisable pour préparer leurs données grâce à des annotations manuelles ou automatisées par l'IA. Ultralytics prend en charge à la fois les données brutes et les formats standard tels que YOLO COCO, ce qui facilite le lancement de nouveaux projets. Elle donne également accès aux jeux de données existants sur la plateforme, y compris des jeux de données annotés que les équipes peuvent utiliser pour démarrer rapidement de nouveaux projets ou expériences.
Fig. 2. Téléchargez et gérez vos ensembles de données dans un environnement unique sur la Ultralytics . (Source)
Une fois les données disponibles, elles peuvent être gérées directement sur la plateforme. Les développeurs peuvent examiner les images, suivre l'avancement de l'annotation et utiliser les visualisations intégrées pour comprendre la répartition de l'ensemble de données et identifier les lacunes éventuelles.
La plateforme prend également en charge la gestion des versions des ensembles de données, ce qui permet aux équipes de créer des instantanés de leurs données au fur et à mesure de leur évolution. Il est ainsi plus facile de track , de comparer les expériences et de garantir la cohérence tout au long de l'entraînement.
Une fois les données préparées, les équipes peuvent passer à l'annotation des images, qui consistent à les étiqueter afin d'aider les modèles à apprendre ce qu'ils doivent detect.
Annotation d'ensembles de données sur Ultralytics
Une fois les données téléchargées, l'étape suivante consiste à les annoter. C'est à ce stade que les données d'image sont étiquetées, jetant ainsi les bases nécessaires à l'entraînement des modèles de vision par ordinateur. Ultralytics intègre des services d'annotation d'images via un éditeur d'annotation qui permet aux équipes d'étiqueter et de gérer les ensembles de données directement au sein du même environnement.
L'éditeur d'annotations s'affiche dans un espace de travail simple où les utilisateurs peuvent examiner les images, ajouter des étiquettes et mettre à jour les annotations selon les besoins. Tout est regroupé au même endroit, ce qui facilite la cohérence des ensembles de données et leur préparation pour l'apprentissage.
Les équipes peuvent télécharger des ensembles de données et commencer à annoter les images directement dans le navigateur, en définissant et en gérant les classes d'annotation afin de garantir la cohérence des étiquettes dans l'ensemble de données. Au fur et à mesure que les annotations sont créées, les utilisateurs peuvent les examiner visuellement dans l'éditeur, ce qui facilite la vérification de leur exactitude avant de passer à l'entraînement du modèle.
Outils d'annotation d'images dans Ultralytics
Ultralytics intègre également plusieurs fonctionnalités qui facilitent les processus d'étiquetage des ensembles de données, simplifiant ainsi le processus d'annotation grâce à des algorithmes avancés.
Voici quelques-unes des principales fonctionnalités disponibles sur Ultralytics :
Annotation manuelle : cette approche offre aux utilisateurs un contrôle total et une grande flexibilité pour créer des annotations sur les images, telles que des cadres de sélection, des zones de segmentation ou des points clés, directement sur les images.
Étiquetage assisté par IA : cette fonctionnalité génère automatiquement des suggestions d'annotations, réduisant ainsi le besoin d'étiquetage manuel. Elle utilise SAM Segment Anything Model) pour detect ou des zones en un seul clic, ce qui simplifie le processus d'annotation et permet aux utilisateurs de vérifier et de valider les suggestions avant de les ajouter à l'ensemble de données.
Modification des annotations : à tout moment, les utilisateurs peuvent modifier ou affiner les annotations des images après leur création. Cela permet de corriger les erreurs d'étiquetage et de garantir la cohérence des étiquettes du jeu de données tout au long du processus d'annotation.
Gestion des classes : les équipes et les développeurs individuels peuvent définir et organiser les classes d'annotation utilisées lors de l'étiquetage des ensembles de données. Cela permet d'assurer la cohérence des étiquettes d'une image à l'autre, ce qui est essentiel pour former des modèles capables de reconnaître et de distinguer avec précision les différentes classes.
En combinant des outils manuels, l'intelligence artificielle et l'automatisation, Ultralytics aide les utilisateurs à annoter des images plus efficacement. Elle permet également de préparer des données d'entraînement de haute qualité pour des modèles de vision par ordinateur évolutifs.
Types de tâches d'annotation pris en charge
Différents cas d'utilisation, tels que l'assurance qualité des produits, nécessiteront différents types d'annotation en fonction de ce qui doit être détecté dans les images ou les vidéos. Comme nous l'avons évoqué plus haut, Ultralytics prend en charge cinq tâches de détection d'objets, chacune avec son propre type d'annotation.
Examinons de plus près les tâches d'annotation prises en charge par la plateforme et la manière dont elles peuvent être utilisées pour étiqueter des ensembles de données.
Détection d'objets
La détection d'objets permet d'identifier et de localiser des objets dans une image. Les annotateurs marquent chaque objet d'intérêt à l'aide de cadres de sélection, indiquant ainsi où ces éléments apparaissent dans l'image.
Dans l'éditeur d'annotations, cette opération s'effectue à l'aide de l'outil « cadre de sélection ». Les utilisateurs peuvent passer en « mode édition », cliquer et faire glisser pour tracer un rectangle autour d'un objet, puis attribuer une étiquette de classe à partir d'un menu déroulant.
Les cadres de sélection peuvent être modifiés après leur création. Les annotateurs peuvent les redimensionner en faisant glisser les poignées situées aux coins ou sur les bords, les déplacer en faisant glisser le centre du cadre, ou les supprimer à l'aide de raccourcis clavier. Ces annotations aident les modèles de vision artificielle à apprendre à detect dans différentes scènes et conditions.
Fig. 3. Annotation pour la détection d'objets à l'aide de cadres de sélection sur la Ultralytics . (Source)
Segmentation d'instance
La segmentation par instance permet d'obtenir des annotations plus détaillées en définissant la forme exacte des objets présents dans une image. Au lieu de tracer un simple rectangle, les annotateurs dessinent les contours de l'objet à l'aide d'annotations polygonales afin de créer des masques précis pour les tâches de segmentation d'images.
L'éditeur d'annotations comprend un outil de polygone destiné à cette tâche. Les annotateurs placent plusieurs sommets le long des contours d'un objet afin d'en tracer le périmètre. Une fois les sommets placés, le polygone peut être fermé pour créer un masque de segmentation.
Les sommets peuvent être modifiés une fois le polygone créé. Il est possible de déplacer chaque point pour affiner les contours de l'objet, et de supprimer des sommets si nécessaire. Ces annotations au niveau des pixels permettent aux modèles d'apprendre les structures visuelles détaillées et de distinguer les objets qui semblent proches les uns des autres.
Estimation de pose
Les annotations d'estimation de la posture permettent de déterminer la position des articulations du corps et les relations entre celles-ci. Cela aide les modèles à comprendre la structure et les mouvements des personnes ou des animaux présents dans une image.
À l'aide de l'outil de points clés, les annotateurs placent des points clés qui représentent les articulations du corps, telles que les épaules, les coudes, les poignets, les hanches, les genoux et les chevilles. La plateforme prend en charge plusieurs modèles de squelette intégrés, notamment le format COCO de 17 points pour la pose COCO , ainsi que des modèles pour les mains, les visages, les chiens et les angles de boîtes.
Les modèles permettent de placer une structure complète en un seul clic, après quoi chaque point clé peut être ajusté pour correspondre à la pose de l'image. Chaque point clé peut également être associé à un indicateur de visibilité permettant de préciser s'il est visible ou masqué.
Fig. 4. Annotation pour l'estimation de la pose à l'aide de points clés et de modèles de squelette. (Source)
Boîtes englobantes orientées (OBB)
Les cadres de sélection orientés vont plus loin que les cadres de sélection classiques en prenant en charge la rotation. Ce type d'annotation est utile lorsque les objets apparaissent en biais plutôt que d'être alignés sur le cadre de l'image.
Dans l'éditeur d'annotations, les annotateurs peuvent utiliser l'outil de cadre de sélection orienté pour tracer des rectangles pivotés autour des objets. Une fois le cadre initial tracé, une poignée de rotation permet d'ajuster l'angle, tandis que les poignées d'angle permettent de redimensionner le cadre.
Les annotations pivotées sont souvent utilisées dans l'imagerie aérienne, les ensembles de données d'inspection industrielle et d'autres contextes où les objets apparaissent en diagonale ou sous différents angles.
Fig. 5. Annotation par boîte englobante orientée (OBB) pour les objets pivotés dans les images aériennes. (Source)
Classification d'images
La classification d'images consiste à attribuer une étiquette à une image dans son ensemble plutôt qu'à marquer les objets qui la composent individuellement.
Pour les ensembles de données de classification, l'éditeur d'annotation propose un panneau de sélection des classes. Les annotateurs peuvent attribuer des étiquettes aux images en sélectionnant une classe dans la barre latérale ou en utilisant des raccourcis clavier pour accélérer le processus d'étiquetage.
Ces étiquettes attribuées au niveau de l'image aident les modèles à apprendre des schémas visuels généraux qui représentent différentes catégories.
Annotation assistée par l'IA avec SAM
L'annotation d'images pour des tâches telles que la segmentation nécessite souvent un travail minutieux et détaillé, en particulier lorsque les objets doivent être délimités avec précision. Ultralytics intègre des outils d'annotation assistés par l'IA qui accélèrent le processus tout en garantissant la précision des annotations et en facilitant leur vérification.
Par exemple, les annotateurs peuvent interagir avec une image en cliquant sur les parties d'un objet qu'ils souhaitent inclure dans l'annotation. Ils peuvent également marquer les zones à exclure afin d'affiner le résultat. À partir de ces données, le modèle génère en temps réel un masque de segmentation, qui peut ensuite être vérifié et ajusté avant d'être enregistré.
Cette approche facilite le traitement d'images complexes sans qu'il soit nécessaire de tracer manuellement chaque détail. Parallèlement, les annotateurs gardent le contrôle du résultat final, garantissant ainsi la cohérence des annotations dans l'ensemble des données.
Fig. 6. Segmentation assistée par IA à l'aide de l'outil « Smart annotation » de la Ultralytics . (Source)
Ces fonctionnalités s'appuient sur les modèles Segment Anything Models (SAM). Ces modèles s'inscrivent dans un écosystème plus large d'outils de vision par ordinateur open source conçus pour générer des segmentations de haute qualité à partir d'un minimum de données. La plateforme prend en charge plusieurs SAM , notamment SAM .1 et SAM . Cela offre aux équipes la possibilité de choisir entre des performances plus rapides et des résultats plus détaillés, en fonction de leurs besoins.
Ces outils assistés par l'IA peuvent être utilisés pour diverses tâches, telles que la détection d'objets, la segmentation d'instances et la détection de cadres de sélection orientés. Cela permet aux équipes de traiter de grands ensembles de données plus efficacement, tout en garantissant la qualité nécessaire à un apprentissage fiable des modèles.
Optimiser les processus d'annotation grâce aux outils intégrés
Au fur et à mesure que le travail d'annotation avance, il est courant de revenir en arrière pour modifier les étiquettes, corriger d'éventuelles erreurs ou examiner les images de plus près. L'éditeur Ultralytics intègre des outils qui facilitent ces tâches quotidiennes et permettent de gagner du temps.
Voici quelques-unes des fonctionnalités de flux de travail disponibles dans l'éditeur :
Raccourcis clavier : l'éditeur propose des raccourcis qui permettent d'accélérer les opérations courantes, telles que l'enregistrement des annotations, l'annulation ou la reprise des modifications, la suppression d'étiquettes et la sélection de classes lors de l'annotation.
Historique des annulations et des reprises : les annotateurs peuvent facilement annuler ou rétablir les modifications apportées au cours d'une session d'édition. Cela permet aux équipes de tester différentes annotations et de corriger rapidement les erreurs sans perdre le travail accompli, ce qui favorise un meilleur contrôle qualité lors de la préparation des ensembles de données.
Modification flexible des annotations : les annotations peuvent être modifiées même après leur création. Les utilisateurs peuvent redimensionner les formes, déplacer les annotations, faire pivoter les cadres de sélection ou mettre à jour les étiquettes de classe selon les besoins, notamment lors du peaufinage d'objets aux formes irrégulières.
Commandes de visibilité : l'éditeur comprend des boutons permettant d'afficher ou de masquer les annotations et les étiquettes de classe, ce qui facilite l'examen des images pendant l'étiquetage.
Outils de précision : des fonctionnalités telles que le zoom et un curseur en forme de réticule indiquant les coordonnées en pixels aident les annotateurs à placer les étiquettes avec plus de précision lorsqu'ils travaillent sur des images détaillées.
Gestion des classes d'annotation sur Ultralytics
Des classes d'annotation claires et cohérentes jouent un rôle essentiel dans la constitution d'ensembles de données fiables pour la vision par ordinateur. À mesure que les projets prennent de l'ampleur, la gestion de l'étiquetage des données dans des ensembles volumineux peut s'avérer difficile, en particulier lorsque plusieurs annotateurs interviennent. Une bonne organisation des classes permet de garantir la cohérence des annotations et d'assurer que les modèles apprennent à partir de données structurées.
Ultralytics simplifie ce processus en intégrant la gestion des classes directement dans l'éditeur d'annotation. Au lieu de traiter les étiquettes séparément, les équipes peuvent créer, mettre à jour et vérifier les classes tout en travaillant sur les images, ce qui facilite le maintien d'une cohérence tout au long du processus d'annotation.
Dans l'éditeur, toutes les classes sont accessibles dans une barre latérale située à côté de la zone d'annotation. Cela permet de sélectionner facilement la bonne étiquette lors de l'annotation et track des classes dans l'ensemble de données. Les utilisateurs peuvent rechercher des classes existantes ou en créer de nouvelles selon leurs besoins, sans interrompre leur flux de travail.
Les détails des classes peuvent également être mis à jour à tout moment. Les noms peuvent être modifiés directement, et des couleurs peuvent être attribuées afin de faciliter l'identification des différentes classes dans les annotations. L'éditeur affiche également le nombre d'annotations associées à chaque classe et permet aux utilisateurs de les consulter, ce qui aide les équipes à vérifier la cohérence et l'exactitude des données.
Toutes les classes sont gérées via une table centralisée où elles peuvent être triées, recherchées et mises à jour. Toute modification effectuée ici est automatiquement répercutée sur l'ensemble des données, ce qui aide les équipes à garantir la cohérence à mesure que les projets d'annotation prennent de l'ampleur.
Fig. 7. La gestion des classes dans l'éditeur d'annotations permet d'organiser les étiquettes et de personnaliser leurs couleurs. (Source)
Comment la qualité des annotations influe sur les performances en conditions réelles
À mesure que les systèmes de vision par ordinateur passent du stade du développement à celui de la mise en œuvre concrète, la qualité des données annotées joue un rôle essentiel dans les performances des modèles. Des ensembles de données correctement étiquetés aident les modèles à produire des prédictions plus précises et plus cohérentes, en particulier dans des environnements dynamiques ou imprévisibles.
Dans la pratique, même de légères incohérences dans l'annotation peuvent influencer le comportement du modèle. Les différences dans la manière dont les objets sont étiquetés ou dont les cas limites sont traités peuvent passer inaperçues pendant l'entraînement, mais peuvent entraîner des prédictions moins fiables une fois les systèmes déployés.
De plus, ces incohérences peuvent devenir plus perceptibles dans les applications concrètes. Par exemple, dans les domaines de la robotique et des systèmes de santé, les modèles s'appuient sur des données visuelles pour detect et orienter leurs actions en temps réel. Les variations dans l'étiquetage peuvent influencer la précision avec laquelle ces systèmes interprètent leur environnement.
En adoptant des pratiques d'annotation cohérentes et en utilisant des plateformes telles Ultralytics gérer et affiner les ensembles de données au fil du temps, les équipes peuvent développer des modèles qui fonctionnent de manière plus fiable en dehors des environnements de test contrôlés.
Principaux points à retenir
Une annotation de données de haute qualité est essentielle pour former des modèles de vision par ordinateur précis et garantir la réussite des projets d'annotation d'images. Ultralytics simplifie ce processus grâce à un puissant éditeur d'annotation prenant en charge de multiples tâches de vision. En combinant des outils d'annotation manuelle avec un étiquetage assisté par IA utilisant SAM des fonctionnalités de workflow intégrées, les équipes peuvent préparer des ensembles de données plus efficacement et passer plus rapidement de la préparation des données au développement de modèles.