En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Paramètres des cookies
En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Rejoignez-nous pour explorer la nécessité de disposer de données de haute qualité lors de la construction de modèles de vision par ordinateur. Découvrez comment la qualité des données peut influer sur les performances des modèles.
En 2019, l'adoption de l'intelligence artificielle (IA) par les entreprises avait augmenté de 270 % au cours des quatre années précédentes. Cette croissance a alimenté l'intégration rapide des applications de vision par ordinateur (VA) - des systèmes d'IA qui permettent aux machines d'interpréter et d'analyser les données visuelles du monde qui les entoure. Ces applications alimentent un large éventail de technologies, allant de la détection de maladies dans l'imagerie médicale et des véhicules autonomes à l'optimisation de la circulation dans les transports et à l'amélioration de la surveillance dans les systèmes de sécurité.
La précision remarquable et les performances inégalées des modèles de vision artificielle de pointe comme Ultralytics YOLO11 ont largement contribué à cette croissance exponentielle. Toutefois, les performances de ces modèles dépendent fortement de la qualité et de la quantité des données utilisées pour former, valider et tester les modèles.
Sans données suffisantes et de haute qualité, les modèles de vision par ordinateur peuvent être difficiles à former et à affiner efficacement pour répondre aux normes industrielles. Dans cet article, nous allons explorer le rôle vital des données dans la création de modèles de vision par ordinateur et pourquoi les données de haute qualité sont si importantes dans la vision par ordinateur. Nous présenterons également quelques conseils pour vous aider à créer des ensembles de données de haute qualité lorsque vous travaillez sur la formation de modèles de vision par ordinateur personnalisés. C'est parti !
Le rôle des données dans la construction de modèles de vision par ordinateur
Les modèles de vision par ordinateur peuvent être entraînés sur de grands ensembles d' images et de vidéos afin de reconnaître des modèles et de faire des prédictions précises. Par exemple, un modèle de détection d'objets peut être entraîné sur des centaines, voire des milliers, d'images et de vidéos étiquetées afin d'identifier les objets avec précision.
La qualité et la quantité de ces données d'entraînement influencent les performances du modèle.
Étant donné que les modèles de vision artificielle ne peuvent apprendre qu'à partir des données auxquelles ils sont exposés, la fourniture de données de haute qualité et d'exemples diversifiés est cruciale pour leur succès. En l'absence d'ensembles de données suffisants et diversifiés, ces modèles risquent de ne pas analyser correctement les scénarios du monde réel et de produire des résultats biaisés ou inexacts.
C'est pourquoi il est important de bien comprendre le rôle des données dans l'apprentissage des modèles . Avant de passer en revue les caractéristiques des données de haute qualité, il convient de comprendre les types d'ensembles de données que l'on peut rencontrer lors de l'apprentissage des modèles de vision par ordinateur.
Types d'ensembles de données de vision par ordinateur
Dans le domaine de la vision par ordinateur, les données utilisées dans le processus de formation sont classées en trois catégories, chacune ayant un objectif spécifique. Voici un aperçu rapide de chaque type :
Données de formation: Il s'agit de l'ensemble de données principal utilisé pour former le modèle à partir de zéro. Il se compose d'images et de vidéos avec des étiquettes prédéfinies, permettant au modèle d'apprendre des modèles et de reconnaître des objets.
Données de validation: Il s'agit d'un ensemble de données utilisé pour vérifier les performances d'un modèle en cours de formation. Il permet de s'assurer que le modèle fonctionne correctement sur de nouvelles données inédites.
Données de test: Un ensemble distinct de données utilisé pour évaluer les performances finales d'un modèle formé. Il vérifie la capacité du modèle à faire des prédictions sur des données complètement nouvelles et inédites.
Fig. 1. Comment les données sont classées dans le domaine de la vision par ordinateur.
Les 5 caractéristiques principales des ensembles de données de vision par ordinateur de haute qualité
Quel que soit le type d'ensemble de données, des données de haute qualité sont essentielles pour construire des modèles de vision par ordinateur performants. Voici quelques-unes des principales caractéristiques d'un ensemble de données de haute qualité :
Précision: Dans l'idéal, les données doivent refléter fidèlement les situations réelles et comporter des étiquettes correctes. Par exemple, lorsqu'il s'agit de Vision AI dans le domaine de la santé, les images de radiographies ou de scanners doivent être étiquetées avec précision pour aider le modèle à apprendre correctement.
Diversité: Un bon ensemble de données comprend une variété d'exemples pour aider le modèle à être performant dans différentes situations. Par exemple, si un modèle apprend à détecter des voitures, l'ensemble de données doit inclure des voitures de différentes formes, tailles et couleurs dans différents contextes (jour, nuit, pluie, etc.).
Cohérence: Les ensembles de données de haute qualité suivent un format uniforme et des normes de qualité. Par exemple, les images doivent avoir des résolutions similaires (certaines ne doivent pas être floues et d'autres nettes) et passer par les mêmes étapes de prétraitement, comme le redimensionnement ou l'ajustement des couleurs, afin que le modèle apprenne à partir d'informations cohérentes.
L'actualité: Les ensembles de données qui sont mis à jour régulièrement peuvent s'adapter aux changements du monde réel. Supposons que vous entraîniez un modèle à détecter tous les types de véhicules. Si de nouveaux véhicules, tels que des scooters électriques, sont introduits, ils doivent être ajoutés à l'ensemble de données pour garantir que le modèle reste précis et à jour.
Vie privée: Si un ensemble de données contient des informations sensibles, comme des photos de personnes, il doit respecter les règles de confidentialité. Des techniques telles que l'anonymisation (suppression des détails identifiables) et le masquage des données (dissimulation des parties sensibles) peuvent protéger la vie privée tout en permettant d'utiliser les données en toute sécurité.
Défis posés par des données de mauvaise qualité
S'il est important de comprendre les caractéristiques des données de haute qualité, il est tout aussi vital d'examiner comment les données de mauvaise qualité peuvent affecter vos modèles de vision par ordinateur.
Des problèmes tels que le surajustement et le sous-ajustement peuvent avoir un impact important sur les performances du modèle. Il y a surajustement lorsqu'un modèle donne de bons résultats sur les données d'apprentissage, mais qu'il éprouve des difficultés avec des données nouvelles ou inédites, souvent parce que l'ensemble de données n'est pas assez varié. Le sous-ajustement, quant à lui, se produit lorsque l'ensemble de données ne fournit pas suffisamment d'exemples ou de qualité pour que le modèle puisse apprendre des modèles significatifs. Pour éviter ces problèmes, il est essentiel de conserver des ensembles de données diversifiés, impartiaux et de haute qualité, afin de garantir des performances fiables dans les applications de formation et les applications réelles.
Des données de mauvaise qualité peuvent également rendre difficile l'extraction et l'apprentissage de modèles significatifs à partir de données brutes, un processus connu sous le nom d'extraction de caractéristiques. Si l'ensemble de données est incomplet, non pertinent ou peu diversifié, le modèle peut avoir du mal à fonctionner efficacement.
Parfois, des données de mauvaise qualité peuvent résulter d'une simplification des données. La simplification des données permet d'économiser de l'espace de stockage et de réduire les coûts de traitement, mais une simplification excessive peut supprimer des détails importants dont le modèle a besoin pour bien fonctionner. C'est pourquoi il est si important de conserver des données de haute qualité tout au long du processus de vision par ordinateur, de la collecte au déploiement. En règle générale, les ensembles de données doivent inclure des caractéristiques essentielles tout en restant diversifiés et précis afin de garantir la fiabilité des prédictions du modèle.
Fig. 3. Comprendre l'extraction des caractéristiques.
Conseils pour maintenir la qualité de vos données de vision par ordinateur
Maintenant que nous avons compris l'importance des données de haute qualité et l'impact des données de mauvaise qualité, examinons comment faire en sorte que votre ensemble de données réponde à des normes élevées.
Tout commence par une collecte de données fiable. L'utilisation de sources diverses telles que le crowdsourcing, les données provenant de régions géographiques variées et la génération de données synthétiques permet de réduire les biais et d'aider les modèles à gérer les scénarios du monde réel. Une fois les données collectées, le prétraitement est essentiel. Des techniques telles que la normalisation, qui met à l'échelle les valeurs des pixels dans une fourchette cohérente, et l'augmentation, qui applique des transformations telles que la rotation, le retournement et le zoom, permettent d'améliorer l'ensemble de données. Ces étapes permettent à votre modèle de mieux se généraliser et de devenir plus robuste, réduisant ainsi le risque d'ajustement excessif.
Une autre étape clé consiste à diviser correctement les ensembles de données. Une approche courante consiste à affecter 70 % des données à la formation, 15 % à la validation et 15 % au test. En vérifiant qu'il n'y a pas de chevauchement entre ces ensembles, on évite les fuites de données et on garantit une évaluation précise du modèle.
Fig. 4. Données communes réparties entre la formation, la validation et le test.
Vous pouvez également utiliser des modèles pré-entraînés comme YOLO11 pour gagner du temps et économiser des ressources informatiques. YOLO11, entraîné sur de vastes ensembles de données et conçu pour diverses tâches de vision par ordinateur, peut être affiné sur votre ensemble de données spécifique afin de répondre à vos besoins. En ajustant le modèle à vos données, vous pouvez éviter l'ajustement excessif et maintenir des performances élevées.
La voie à suivre pour les ensembles de données de vision par ordinateur
La communauté de l'IA s'est traditionnellement concentrée sur l'amélioration des performances en construisant des modèles plus profonds avec davantage de couches. Toutefois, à mesure que l'IA continue d'évoluer, l'accent n'est plus mis sur l'optimisation des modèles, mais sur l'amélioration de la qualité des ensembles de données. Andrew Ng, souvent considéré comme le "père de l'IA", estime que "le changement le plus important que le monde de l'IA devra connaître au cours de cette décennie sera le passage à une IA centrée sur les données".
Cette approche met l'accent sur l'affinage des ensembles de données en améliorant la précision des étiquettes, en supprimant les exemples bruyants et en garantissant la diversité. Dans le domaine de la vision artificielle, ces principes sont essentiels pour résoudre des problèmes tels que les biais et les données de mauvaise qualité, et permettre aux modèles de fonctionner de manière fiable dans des scénarios réels.
À l'avenir, les progrès de la vision par ordinateur reposeront sur la création d'ensembles de données plus petits et de haute qualité plutôt que sur la collecte de grandes quantités de données. Selon Andrew Ng, "l'amélioration des données n'est pas une étape ponctuelle de prétraitement ; c'est un élément essentiel du processus itératif de développement de modèles d'apprentissage automatique ". En se concentrant sur les principes centrés sur les données, la vision par ordinateur continuera à devenir plus accessible, plus efficace et plus percutante dans diverses industries.
Principaux enseignements
Les données jouent un rôle essentiel tout au long du cycle de vie d'un modèle de vision. De la collecte des données au prétraitement, en passant par l'entraînement, la validation et les tests, la qualité des données a un impact direct sur les performances et la fiabilité du modèle. En donnant la priorité à des données de haute qualité et à un étiquetage précis, nous pouvons construire des modèles de vision artificielle robustes qui fournissent des résultats fiables et précis.
Alors que nous nous dirigeons vers un avenir axé sur les données, il est essentiel d'aborder les considérations éthiques pour atténuer les risques liés à la partialité et aux réglementations en matière de protection de la vie privée. En fin de compte, il est essentiel de garantir l'intégrité et l'équité des données pour libérer tout le potentiel des technologies de vision par ordinateur.
Rejoignez notre communauté et consultez notre dépôt GitHub pour en savoir plus sur l'IA. Consultez nos pages de solutions pour découvrir d'autres applications de l'IA dans des secteurs tels que l'agriculture et l'industrie manufacturière.