Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024

L'importance des ensembles de données de vision par ordinateur de haute qualité

Abirami Vina

4 min de lecture

16 décembre 2024

Rejoignez-nous pour explorer la nécessité de données de haute qualité lors de la création de modèles de vision par ordinateur. Découvrez comment la qualité des données peut avoir un impact sur les performances du modèle.

Depuis 2019, l'adoption de l'intelligence artificielle (IA) en entreprise a augmenté de 270 % au cours des quatre dernières années. Cette croissance a alimenté l'intégration rapide des applications de vision par ordinateur (CV) : des systèmes d'IA qui permettent aux machines d'interpréter et d'analyser les données visuelles du monde qui les entoure. Ces applications alimentent un large éventail de technologies, de la détection des maladies dans l'imagerie médicale et de la capacité des véhicules autonomes à l'optimisation de la circulation dans les transports et à l'amélioration de la surveillance dans les systèmes de sécurité. 

La précision remarquable et les performances inégalées des modèles de vision par ordinateur de pointe comme Ultralytics YOLO11 ont largement contribué à cette croissance exponentielle. Cependant, les performances de ces modèles dépendent fortement de la qualité et de la quantité des données utilisées pour entraîner, valider et tester les modèles. 

Sans suffisamment de données de haute qualité, les modèles de vision par ordinateur peuvent être difficiles à entraîner et à affiner efficacement pour répondre aux normes de l'industrie. Dans cet article, nous explorerons le rôle essentiel des données dans la création de modèles de vision par ordinateur et pourquoi des données de haute qualité sont si importantes dans la vision par ordinateur. Nous vous présenterons également quelques conseils pour vous aider à créer des ensembles de données de haute qualité lorsque vous travaillez sur l'entraînement de modèles de vision par ordinateur personnalisés. Commençons !

Le rôle des données dans la construction de modèles de vision par ordinateur

Les modèles de vision par ordinateur peuvent être entraînés sur de grands ensembles de données d'images et de vidéos pour reconnaître des motifs et faire des prédictions précises. Par exemple, un modèle de détection d'objets peut être entraîné sur des centaines, voire des milliers, d'images et de vidéos étiquetées pour identifier avec précision des objets. 

La qualité et la quantité de ces données d'entraînement influencent les performances du modèle

Étant donné que les modèles de vision par ordinateur ne peuvent apprendre qu'à partir des données auxquelles ils sont exposés, il est essentiel de fournir des données de haute qualité et des exemples diversifiés pour leur succès. Sans ensembles de données suffisants et diversifiés, ces modèles peuvent ne pas parvenir à analyser avec précision les scénarios du monde réel et pourraient produire des résultats biaisés ou inexacts. 

C'est pourquoi il est important de bien comprendre le rôle des données dans l'entraînement des modèles. Avant de passer en revue les caractéristiques des données de haute qualité, comprenons les types de datasets que vous pourriez rencontrer lors de l'entraînement de modèles de vision par ordinateur.

Types d'ensembles de données de vision par ordinateur

En vision par ordinateur, les données utilisées dans le processus d'entraînement sont classées en trois types, chacun servant un objectif spécifique. Voici un aperçu rapide de chaque type :

  • Données d'entraînement: Il s'agit de l'ensemble de données principal utilisé pour entraîner le modèle à partir de zéro. Il se compose d'images et de vidéos avec des étiquettes prédéfinies, permettant au modèle d'apprendre des modèles et de reconnaître des objets. 
  • Données de validation: Il s'agit d'un ensemble de données utilisé pour vérifier les performances d'un modèle pendant sa formation. Il permet de s'assurer que le modèle fonctionne correctement sur des données nouvelles et invisibles.
  • Données de test : Un ensemble distinct de données utilisé pour évaluer les performances finales d'un modèle entraîné. Il vérifie dans quelle mesure le modèle peut faire des prédictions sur des données complètement nouvelles et invisibles.
__wf_reserved_inherit
Fig 1. Comment les données sont catégorisées dans la vision par ordinateur.

Les 5 principales caractéristiques des ensembles de données de vision par ordinateur de haute qualité

Quel que soit le type d'ensemble de données, des données de haute qualité sont essentielles pour créer des modèles de vision par ordinateur performants. Voici quelques-unes des principales caractéristiques qui font qu'un ensemble de données est de haute qualité :

  • Précision : Idéalement, les données doivent refléter fidèlement les situations du monde réel et inclure des étiquettes correctes. Par exemple, en ce qui concerne l'IA de vision dans le domaine de la santé, les images de radiographies ou de scanners doivent être étiquetées avec précision pour aider le modèle à apprendre correctement. 
  • Diversité : Un bon ensemble de données comprend une variété d'exemples pour aider le modèle à bien fonctionner dans différentes situations. Par exemple, si un modèle apprend à détecter des voitures, l'ensemble de données doit inclure des voitures de différentes formes, tailles et couleurs dans divers contextes (jour, nuit, pluie, etc.).
  • Cohérence : Les ensembles de données de haute qualité suivent un format uniforme et des normes de qualité. Par exemple, les images doivent avoir des résolutions similaires (pas certaines floues et d'autres nettes) et passer par les mêmes étapes de prétraitement, comme le redimensionnement ou les ajustements de couleur, afin que le modèle apprenne à partir d'informations cohérentes.
  • Actualité : Les ensembles de données mis à jour régulièrement peuvent suivre l'évolution du monde réel. Supposons que vous entraîniez un modèle pour détecter tous les types de véhicules. Si de nouveaux véhicules, comme les scooters électriques, sont introduits, ils doivent être ajoutés à l'ensemble de données pour garantir que le modèle reste précis et à jour.
  • Confidentialité : Si un ensemble de données comprend des informations sensibles, comme des photos de personnes, il doit respecter les règles de confidentialité. Des techniques telles que l'anonymisation (suppression des détails d'identification) et le masquage des données (masquage des parties sensibles) peuvent protéger la confidentialité tout en permettant d'utiliser les données en toute sécurité.

Défis causés par des données de faible qualité

Bien qu'il soit important de comprendre les caractéristiques des données de haute qualité, il est tout aussi essentiel de tenir compte de la façon dont les données de faible qualité peuvent affecter vos modèles de vision par ordinateur.

Des problèmes tels que le surapprentissage et le sous-apprentissage peuvent avoir un impact important sur les performances du modèle. Le surapprentissage se produit lorsqu'un modèle fonctionne bien sur les données d'entraînement, mais a du mal avec les données nouvelles ou non vues, souvent parce que l'ensemble de données manque de variété. Le sous-apprentissage, en revanche, se produit lorsque l'ensemble de données ne fournit pas suffisamment d'exemples ou de qualité pour que le modèle apprenne des schémas significatifs. Pour éviter ces problèmes, il est essentiel de maintenir des ensembles de données diversifiés, non biaisés et de haute qualité, garantissant ainsi des performances fiables dans l'entraînement et les applications du monde réel.

__wf_reserved_inherit
Fig. 2. Sous-apprentissage vs. Sur-apprentissage.

Des données de mauvaise qualité peuvent également rendre difficile pour les modèles d'extraire et d'apprendre des modèles significatifs à partir de données brutes, un processus connu sous le nom d'extraction de caractéristiques. Si l'ensemble de données est incomplet, non pertinent ou manque de diversité, le modèle peut avoir du mal à fonctionner efficacement. 

Parfois, des données de mauvaise qualité peuvent résulter d'une simplification excessive des données. La simplification des données peut aider à économiser de l'espace de stockage et à réduire les coûts de traitement, mais une simplification excessive peut supprimer des détails importants dont le modèle a besoin pour bien fonctionner. C'est pourquoi il est si important de maintenir des données de haute qualité tout au long du processus de vision par ordinateur, de la collecte au déploiement. En règle générale, les ensembles de données doivent inclure les caractéristiques essentielles tout en restant diversifiés et précis afin de garantir des prédictions de modèle fiables.

__wf_reserved_inherit
Fig 3. Comprendre l'extraction de caractéristiques.

Conseils pour maintenir la qualité de votre ensemble de données de vision par ordinateur

Maintenant que nous avons compris l'importance de données de haute qualité et l'impact de données de faible qualité, explorons comment nous assurer que votre ensemble de données répond à des normes élevées.

Tout commence par une collecte de données fiable. L'utilisation de sources diverses telles que le crowdsourcing, les données provenant de diverses régions géographiques et la génération de données synthétiques réduit les biais et aide les modèles à gérer les scénarios du monde réel. Une fois les données collectées, le prétraitement est essentiel. Les techniques telles que la normalisation, qui met à l'échelle les valeurs des pixels dans une plage cohérente, et l'augmentation, qui applique des transformations telles que la rotation, le retournement et le zoom, améliorent l'ensemble de données. Ces étapes aident votre modèle à mieux se généraliser et à devenir plus robuste, réduisant ainsi le risque de surapprentissage.

La division appropriée des ensembles de données est une autre étape clé. Une approche courante consiste à allouer 70 % des données à l'entraînement, 15 % à la validation et 15 % aux tests. Vérifier qu'il n'y a pas de chevauchement entre ces ensembles permet d'éviter les fuites de données et garantit une évaluation précise du modèle.

__wf_reserved_inherit
Figure 4. Une répartition courante des données entre l'entraînement, la validation et les tests.

Vous pouvez également utiliser des modèles pré-entraînés comme YOLO11 pour gagner du temps et des ressources de calcul. YOLO11, entraîné sur de grands ensembles de données et conçu pour diverses tâches de vision par ordinateur, peut être affiné sur votre ensemble de données spécifique pour répondre à vos besoins. En ajustant le modèle à vos données, vous pouvez éviter le surapprentissage et maintenir de solides performances. 

La voie à suivre pour les ensembles de données de vision par ordinateur

La communauté de l'IA s'est traditionnellement concentrée sur l'amélioration des performances en construisant des modèles plus profonds avec plus de couches. Cependant, à mesure que l'IA continue d'évoluer, l'accent se déplace de l'optimisation des modèles vers l'amélioration de la qualité des ensembles de données. Andrew Ng, souvent considéré comme le « père de l'IA », estime que « le changement le plus important que le monde de l'IA doit traverser au cours de cette décennie sera un passage à une IA centrée sur les données ». 

Cette approche met l'accent sur l'amélioration des ensembles de données en améliorant la précision des étiquettes, en supprimant les exemples bruités et en assurant la diversité. Pour la vision par ordinateur, ces principes sont essentiels pour résoudre les problèmes tels que les biais et les données de mauvaise qualité, permettant aux modèles de fonctionner de manière fiable dans des scénarios réels.

Pour l'avenir, les progrès de la vision par ordinateur reposeront sur la création d'ensembles de données plus petits et de haute qualité plutôt que sur la collecte de grandes quantités de données. Selon Andrew Ng, "L'amélioration des données n'est pas une étape de prétraitement unique ; c'est un élément essentiel du processus itératif de développement de modèles d'apprentissage automatique." En se concentrant sur les principes axés sur les données, la vision par ordinateur continuera de devenir plus accessible, efficace et percutante dans divers secteurs.

Principaux points à retenir

Les données jouent un rôle essentiel tout au long du cycle de vie d'un modèle de vision. De la collecte des données au prétraitement, à l'entraînement, à la validation et aux tests, la qualité des données a un impact direct sur les performances et la fiabilité du modèle. En accordant la priorité à des données de haute qualité et à un étiquetage précis, nous pouvons créer des modèles de vision par ordinateur robustes qui fournissent des résultats fiables et précis. 

Alors que nous progressons vers un avenir axé sur les données, il est essentiel de tenir compte des considérations éthiques afin d'atténuer les risques liés aux biais et aux réglementations en matière de confidentialité. En fin de compte, garantir l'intégrité et l'équité des données est essentiel pour libérer tout le potentiel des technologies de vision par ordinateur.

Rejoignez notre communauté et consultez notre répertoire GitHub pour en savoir plus sur l'IA. Consultez nos pages de solutions pour explorer d'autres applications de l'IA dans des secteurs tels que l'agriculture et la fabrication.

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers