Histoire des modèles de vision

Mostafa Ibrahim

5 minutes de lecture

16 juillet 2024

Explorer l'histoire, les réalisations, les défis et les orientations futures des modèles de vision.

Qu'est-ce que la vision par ordinateur ?

Imaginez que vous entriez dans un magasin où une caméra identifie votre visage, analyse votre humeur et vous suggère des produits adaptés à vos préférences, le tout en temps réel. Il ne s'agit pas de science-fiction, mais d'une réalité rendue possible par les modèles de vision modernes. Selon un rapport de Fortune Business Insight, la taille du marché mondial de la vision par ordinateur était évaluée à 20,31 milliards d'USD en 2023 et devrait passer de 25,41 milliards d'USD en 2024 à 175,72 milliards d'USD d'ici 2032, reflétant les progrès rapides et l'adoption croissante de cette technologie dans diverses industries.

Le domaine de la vision par ordinateur permet aux ordinateurs de détecter, d'identifier et d'analyser des objets dans des images. À l'instar d'autres domaines liés à l'intelligence artificielle, la vision par ordinateur a connu une évolution rapide au cours des dernières décennies, réalisant des progrès remarquables. 

L'histoire de la vision par ordinateur est longue. Dans les premières années, les modèles de vision par ordinateur étaient capables de détecter des formes et des bords simples, et se limitaient souvent à des tâches de base telles que la reconnaissance de motifs géométriques ou la différenciation entre les zones claires et sombres. Cependant, les modèles actuels peuvent effectuer des tâches complexes telles que la détection d'objets en temps réel, la reconnaissance faciale et même l'interprétation d'émotions à partir d'expressions faciales, avec une précision et une efficacité exceptionnelles. Cette progression spectaculaire met en évidence les progrès incroyables réalisés en matière de puissance de calcul, de sophistication algorithmique et de disponibilité de vastes quantités de données pour l'entraînement.

Dans cet article, nous allons explorer les étapes clés de l'évolution de la vision par ordinateur. Nous nous pencherons sur ses débuts, sur l'impact transformateur des réseaux neuronaux convolutifs (CNN) et nous examinerons les avancées significatives qui ont suivi.

Les débuts de la vision par ordinateur

Comme pour d'autres domaines de l'intelligence artificielle, les premiers développements de la vision par ordinateur ont commencé par des recherches fondamentales et des travaux théoriques. Les travaux pionniers de Lawrence G. Roberts sur la reconnaissance d'objets en 3D, documentés dans sa thèse"Machine Perception of Three-Dimensional Solids" au début des années 1960, ont constitué une étape importante. Ses contributions ont jeté les bases des progrès futurs dans ce domaine.

Les premiers algorithmes - détection des contours

Les premières recherches sur la vision par ordinateur se sont concentrées sur les techniques de traitement d'images, telles que la détection des contours et l'extraction des caractéristiques. Des algorithmes tels que l'opérateur Sobel, développé à la fin des années 1960, ont été parmi les premiers à détecter les contours en calculant le gradient de l'intensité de l'image.

__wf_reserved_inherit
Fig. 1. Image illustrant la détection des contours : la partie gauche montre l'objet original et la partie droite affiche la version détectée des contours.

Des techniques telles que les détecteurs de bords Sobel et Canny ont joué un rôle crucial dans l'identification des limites au sein des images, qui sont essentielles pour reconnaître les objets et comprendre les scènes.

Apprentissage automatique et vision par ordinateur

Reconnaissance des formes

Dans les années 1970, la reconnaissance des formes est apparue comme un domaine clé de la vision par ordinateur. Les chercheurs ont mis au point des méthodes pour reconnaître les formes, les textures et les objets dans les images, ce qui a ouvert la voie à des tâches de vision plus complexes.

__wf_reserved_inherit
Fig. 2. Reconnaissance des formes.

L'une des premières méthodes de reconnaissance des formes consistait à comparer des modèles, c'est-à-dire à comparer une image à un ensemble de modèles afin de trouver la meilleure correspondance. Cette approche était limitée par sa sensibilité aux variations d'échelle, à la rotation et au bruit.

__wf_reserved_inherit
Fig. 3. Un modèle sur le côté gauche se trouve dans l'image de droite.

Les premiers systèmes de vision par ordinateur étaient limités par la puissance de calcul restreinte de l'époque. Les ordinateurs des années 1960 et 1970 étaient encombrants, coûteux et avaient des capacités de traitement limitées.

Changer la donne avec l'apprentissage profond

Apprentissage profond et réseaux neuronaux à convolution

L'apprentissage profond et les réseaux neuronaux convolutifs (CNN) ont marqué un tournant dans le domaine de la vision par ordinateur. Ces avancées ont radicalement transformé la manière dont les ordinateurs interprètent et analysent les données visuelles, permettant un large éventail d'applications qui étaient auparavant considérées comme impossibles.

Comment fonctionne le CNN ?

__wf_reserved_inherit
Fig. 4. Architecture d'un réseau neuronal convolutif (CNN).

  1. Couches convolutives: Les CNN utilisent des couches convolutives qui sont un type de modèle d'apprentissage profond conçu pour traiter des données structurées sous forme de grille, telles que des images ou des séquences, en apprenant automatiquement des modèles hiérarchiques. Ces filtres détectent diverses caractéristiques telles que les bords, les textures et les couleurs en glissant sur l'image et en calculant les produits de points. Chaque filtre active des motifs spécifiques dans l'image, ce qui permet au modèle d'apprendre des caractéristiques hiérarchiques.
  2. Fonctions d'activation: Après la convolution, les fonctions d'activation comme ReLU (Rectified Linear Unit) qui est une fonction d'activation populaire dans l'apprentissage profond qui sort l'entrée directement si elle est positive, et zéro sinon, aidant les réseaux neuronaux à apprendre les relations non linéaires dans les données de manière efficace. Cela aide le réseau à apprendre des modèles et des représentations complexes.
  3. Couches de mise en commun: Les couches de mise en commun fournissent une opération de sous-échantillonnage qui réduit la dimensionnalité de la carte des caractéristiques, ce qui permet d'extraire les caractéristiques les plus pertinentes tout en réduisant les coûts de calcul et le surajustement.
  4. Couches entièrement connectées: Les dernières couches d'un CNN sont des couches entièrement connectées qui interprètent les caractéristiques extraites par les couches de convolution et de mise en commun pour faire des prédictions. Ces couches sont similaires à celles des réseaux neuronaux traditionnels.

‍Evolutiondes modèles de vision CNN

‍Leparcours des modèles de vision a été long et a permis d'en présenter quelques-uns parmi les plus remarquables :

  • LeNet (1989) : LeNet est l'une des premières architectures CNN, principalement utilisée pour la reconnaissance de chiffres dans les chèques manuscrits. Son succès a jeté les bases de CNN plus complexes, démontrant le potentiel de l'apprentissage profond dans le traitement des images.
  • AlexNet (2012) : AlexNet a largement surpassé les modèles existants dans la compétition ImageNet, mettant en évidence la puissance de l'apprentissage profond. Ce modèle a utilisé les activations ReLU, l'abandon et l'augmentation des données, établissant de nouvelles références en matière de classification d'images et suscitant un intérêt généralisé pour les CNN.
  • VGGNet (2014) : En utilisant des filtres convolutifs plus petits (3x3), VGGNet a obtenu des résultats impressionnants dans des tâches de classification d'images, renforçant l'importance de la profondeur du réseau dans l'obtention d'une plus grande précision.
  • ResNet (2015) : ResNet s'est attaqué au problème de la dégradation dans les réseaux profonds en introduisant l'apprentissage résiduel. Cette innovation a permis d'entraîner des réseaux beaucoup plus profonds, ce qui a conduit à des performances de pointe dans diverses tâches de vision par ordinateur.
  • YOLO (You Only Look Once): YOLO a révolutionné la détection d'objets en la présentant comme un problème de régression unique, prédisant directement les boîtes de délimitation et les probabilités de classe à partir d'images complètes en une seule évaluation. Cette approche a permis la détection d'objets en temps réel avec une rapidité et une précision sans précédent, ce qui la rend adaptée aux applications nécessitant un traitement instantané, telles que la conduite autonome et la surveillance.

‍Computervision applications

Soins de santé

‍Lesutilisations de la vision par ordinateur sont nombreuses. Par exemple, des modèles de vision comme Ultralytics YOLOv8 sont utilisés en imagerie médicale pour détecter des maladies telles que le cancer et la rétinopathie diabétique. Ils analysent les rayons X, les IRM et les tomodensitogrammes avec une grande précision, identifiant rapidement les anomalies. Cette capacité de détection précoce permet d'intervenir à temps et d'améliorer les résultats pour les patients.

__wf_reserved_inherit
Fig. 5. Détection de tumeurs cérébrales à l'aide d'Ultralytics YOLOv8.

Préservation de l'environnement

Les modèles de vision par ordinateur contribuent à la surveillance et à la protection des espèces menacées en analysant les images et les vidéos des habitats de la faune et de la flore. Ils identifient et suivent le comportement des animaux, fournissant des données sur leur population et leurs mouvements. Cette technologie éclaire les stratégies de conservation et les décisions politiques visant à protéger des espèces telles que les tigres et les éléphants.

Grâce à l'IA visionnaire, il est possible de surveiller d'autres menaces environnementales telles que les incendies de forêt et la déforestation, ce qui permet aux autorités locales de réagir rapidement.

__wf_reserved_inherit
Fig. 6. Image satellite d'un incendie de forêt.

Défis et orientations futures

Bien qu'ils aient déjà accompli des progrès considérables, les modèles de vision sont confrontés, en raison de leur extrême complexité et de la nature exigeante de leur développement, à de nombreux défis qui nécessitent des recherches continues et des avancées futures.

Interprétabilité et explicabilité

Les modèles de vision, en particulier les modèles d'apprentissage profond, sont souvent considérés comme des "boîtes noires" à la transparence limitée. Cela est dû au fait que ces modèles sont incroyablement complexes. Le manque d'interprétabilité entrave la confiance et la responsabilité, en particulier dans les applications critiques comme les soins de santé par exemple.

Exigences informatiques

La formation et le déploiement de modèles d'IA de pointe exigent des ressources informatiques considérables. C'est particulièrement vrai pour les modèles de vision, qui nécessitent souvent le traitement de grandes quantités d'images et de données vidéo. Les images et les vidéos haute définition, qui font partie des données d'entrée les plus volumineuses, alourdissent la charge de calcul. Par exemple, une seule image HD peut occuper plusieurs mégaoctets de stockage, ce qui rend le processus d'apprentissage gourmand en ressources et en temps.

Cela nécessite un matériel puissant et des algorithmes de vision par ordinateur optimisés pour traiter les données volumineuses et les calculs complexes impliqués dans le développement de modèles de vision efficaces. La recherche sur des architectures plus efficaces, la compression des modèles et les accélérateurs matériels tels que les GPU et les TPU sont des domaines clés qui feront progresser l'avenir des modèles de vision.

Ces améliorations visent à réduire les besoins de calcul et à accroître l'efficacité du traitement. En outre, l'utilisation de modèles avancés pré-entraînés comme YOLOv8 peut réduire considérablement la nécessité d'un entraînement intensif, ce qui rationalise le processus de développement et améliore l'efficacité.

Un paysage en constante évolution

De nos jours, les applications des modèles de vision sont très répandues, allant des soins de santé, tels que la détection des tumeurs, aux utilisations quotidiennes telles que la surveillance du trafic. Ces modèles avancés ont apporté des innovations à d'innombrables secteurs en offrant une précision, une efficacité et des capacités accrues qui étaient auparavant inimaginables.

Alors que la technologie continue de progresser, le potentiel des modèles de vision pour innover et améliorer divers aspects de la vie et de l'industrie reste illimité. Cette évolution permanente souligne l'importance de poursuivre la recherche et le développement dans le domaine de la vision par ordinateur.

Curieux de connaître l'avenir de l'IA visionnaire ? Pour en savoir plus sur les dernières avancées, explorez les documents d'Ultralytics et consultez leurs projets sur Ultralytics GitHub et YOLOv8 GitHub. En outre, pour avoir un aperçu des applications de l'IA dans divers secteurs, les pages de solutions sur les voitures autonomes et la fabrication offrent des informations particulièrement utiles.

Construisons ensemble le futur
de l'IA !

Commencez votre voyage avec l'avenir de l'apprentissage automatique

Commencer gratuitement
Lien copié dans le presse-papiers