Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Exploration de la vision par ordinateur dans les applications de navigation

Abirami Vina

5 min de lecture

26 mai 2025

Découvrez comment la vision par ordinateur dans les solutions de navigation améliore la cartographie en temps réel, la reconnaissance d'objets et la réalité augmentée pour des expériences de voyage plus intelligentes et plus sûres.

De nos jours, sortir son téléphone, taper une destination et suivre les indications étape par étape pour s'y rendre semble simple. C'est une chose qui ne prend que quelques secondes. Mais cette commodité quotidienne est le résultat d'années de progrès technologiques. La navigation a parcouru un long chemin, des cartes papier et des boussoles aux systèmes intelligents capables de comprendre et de réagir au monde en temps réel.

L'une des technologies à l'origine de cette évolution est la vision par ordinateur, une branche de l'intelligence artificielle (IA) qui permet aux machines d'interpréter les informations visuelles comme le font les humains. Les outils de navigation de pointe utilisent désormais l'imagerie en temps réel provenant de satellites, de caméras embarquées et de capteurs au niveau de la rue pour améliorer la précision des cartes, surveiller l'état des routes et guider les utilisateurs dans des environnements complexes.

Dans cet article, nous allons explorer comment la vision par ordinateur améliore la navigation en perfectionnant les cartes GPS, en offrant des mises à jour du trafic en temps réel et en prenant en charge des technologies telles que la navigation en réalité augmentée et les véhicules autonomes.

Systèmes de navigation IA avec cartographie 3D immersive

L'utilisation d'outils tels que Google Maps pour se déplacer au quotidien est devenue très courante, que ce soit pour traverser la ville ou pour trouver un café à proximité. Avec l'adoption croissante des technologies d'IA, nous constatons l'apparition de fonctionnalités de plus en plus avancées, comme la vue immersive, introduite en 2023 par Google Maps, qui permet aux utilisateurs de prévisualiser des parties de leur trajet dans un environnement 3D. Ceci est rendu possible grâce à une combinaison d'IA, de photogrammétrie et de vision par ordinateur.

Fig 1. Vue immersive de Google Maps.

Tout commence avec des milliards d'images haute résolution capturées par une gamme d'équipements spécialisés. Cela comprend les voitures Street View, les véhicules équipés de caméras à 360 degrés qui circulent dans les villes, et les appareils Trekker, des sacs à dos portables avec des caméras montées utilisées pour capturer des images dans des endroits où les véhicules ne peuvent pas accéder, comme les sentiers de randonnée ou les ruelles étroites.

Ces images sont alignées sur les données cartographiques à l'aide de la photogrammétrie, une technique qui consiste à assembler des photos 2D prises sous différents angles pour créer des modèles 3D précis des rues, des bâtiments et du terrain.

La vision par ordinateur est ensuite utilisée pour analyser ces modèles à l'aide de la détection d'objets et de la segmentation d'images afin d'identifier et d'étiqueter les caractéristiques importantes telles que les panneaux de signalisation, les trottoirs, les passages pour piétons et les entrées de bâtiments.

Fig. 2. Immersive View utilise la segmentation pour segmenter les objets dans une rue.

Les données étiquetées sont utilisées pour entraîner des systèmes d'IA qui reconnaissent comment les signaux visuels diffèrent d'une région à l'autre. Par exemple, le système peut facilement distinguer un panneau « SLOW » aux États-Unis, qui est généralement un losange jaune ou orange, et un panneau similaire au Japon, qui est généralement un triangle rouge et blanc. Ce niveau de compréhension rend l'expérience de navigation plus précise et culturellement consciente.

Enfin, la vue immersive superpose des itinéraires de navigation en direct sur l'environnement 3D, offrant une expérience fluide et intuitive qui indique exactement où vous vous dirigez.

Réalité augmentée dans les solutions de navigation

Nous avons probablement tous fait l'expérience de tourner en rond et d'essayer de comprendre dans quelle direction Google Maps nous oriente. Cette confusion est exactement ce que la navigation en réalité augmentée (RA), une technologie qui superpose des informations numériques à la vue de la caméra du monde réel, vise à résoudre. Elle change la façon dont les gens s'orientent dans les endroits très fréquentés comme les rues de la ville ou les grands espaces intérieurs. 

Les cartes classiques peuvent être difficiles à suivre, surtout lorsque les signaux GPS sont faibles ou ne fonctionnent pas bien. La navigation en réalité augmentée (RA) s'attaque à ce problème en affichant des directions numériques, des flèches et des étiquettes directement sur la vue en direct de la caméra du monde réel. Cela signifie que les utilisateurs voient des indications qui correspondent aux rues et aux bâtiments qui les entourent, ce qui facilite grandement la tâche de savoir où aller.

Comment la réalité augmentée est utilisée dans la navigation

La navigation en RA repose sur des modèles de vision par ordinateur pour comprendre l'environnement à travers la caméra d'un appareil. Cela implique diverses tâches telles que la localisation d'images, qui détecte des éléments tels que les bords de bâtiments ou les panneaux de signalisation et les fait correspondre à une carte stockée. La localisation et la cartographie simultanées (SLAM) créent une carte de l'environnement tout en suivant la position de l'appareil en temps réel.

Par exemple, l'aéroport de Zurich a été le premier à mettre en œuvre la fonctionnalité Live View de Google Maps pour la navigation intérieure. Les passagers peuvent utiliser la caméra de leur téléphone pour voir des flèches et des indications superposées à l'environnement réel, les guidant à travers les terminaux vers les portes d'embarquement, les boutiques et les services. Cela améliore l'expérience des passagers en facilitant la navigation dans les espaces intérieurs complexes.

Fig 3. L'aéroport de Zurich utilise la vision par ordinateur et la RA pour guider les passagers à l'intérieur.

Améliorer la sécurité routière grâce aux systèmes de navigation IA

Les rues des villes sont de plus en plus fréquentées. Avec l'augmentation du nombre de voitures, des trottoirs bondés et une activité constante, assurer la fluidité et la sécurité de la circulation représente un défi croissant. Pour aider à gérer ce chaos, de nombreuses villes se tournent vers l'IA et la vision par ordinateur.

Des caméras intelligentes et des capteurs installés aux intersections et le long des routes capturent un flux constant de données visuelles. Ces images sont traitées en temps réel pour détecter les accidents, surveiller le flux de circulation, repérer les nids-de-poule et identifier les stationnements illégaux ou les comportements piétonniers à risque.

Un exemple intéressant est la Smart Airport Expressway à Hangzhou, en Chine. Cette autoroute de 20 kilomètres, reliant le centre-ville de Hangzhou à l'aéroport international de Xiaoshan, a été modernisée avec des caméras haute résolution et des radars à ondes millimétriques. Ces appareils collectent en permanence des données vidéo et de capteurs, qui sont ensuite analysées à l'aide de la vision par ordinateur.

Plutôt que de simplement enregistrer des images, le système interprète ce qui se passe sur la route. Les algorithmes de vision par ordinateur détectent les collisions de véhicules, reconnaissent les infractions au code de la route et identifient même les piétons ou les mouvements inhabituels près des sorties d'autoroute. Cela permet aux agents de la circulation de réagir aux incidents en quelques secondes, sans avoir besoin d'être physiquement sur place.

Les données alimentent également un jumeau numérique : un modèle virtuel 3D en direct de la voie rapide qui affiche les conditions de circulation en temps réel, les détails des véhicules et les embouteillages émergents. Les agents de la circulation surveillent cette interface visuelle pour gérer le flux, émettre des alertes intelligentes et réagir aux incidents rapidement et avec précision.

Mobilité autonome rendue possible par la vision par ordinateur dans la navigation 

La navigation aujourd'hui va bien au-delà du simple fait d'aller d'un point A à un point B. Elle fait désormais partie intégrante des systèmes intelligents qui déplacent les personnes, gèrent les marchandises et prennent des décisions en temps réel, que ce soit sur la route ou à l'intérieur des entrepôts

Au cœur de nombreux de ces systèmes se trouve la vision par ordinateur, permettant aux machines d'interpréter les données visuelles et de réagir instantanément à leur environnement. Examinons quelques exemples pour voir comment cette technologie transforme la navigation dans différents environnements.

Robots d'entrepôt naviguant grâce à la vision par ordinateur

Les robots deviennent essentiels à l'avenir de la logistique, en particulier dans les opérations d'entrepôt à grande échelle. Face à la croissance de la demande du commerce électronique, les entreprises s'appuient de plus en plus sur des machines dotées de vision par ordinateur pour naviguer dans des environnements complexes, trier les articles et gérer les stocks avec rapidité et précision.

Prenons, par exemple, les centres de distribution d'Amazon, où plus de 750 000 robots travaillent aux côtés des humains pour assurer l'efficacité des opérations. Ces robots s'appuient fortement sur la vision par ordinateur pour naviguer dans les entrepôts très fréquentés, identifier les articles et prendre des décisions rapides et précises.

L'un de ces systèmes est Sequoia, une plateforme robotique conçue pour accélérer la manutention des stocks. Elle utilise une vision par ordinateur avancée pour scanner, compter et organiser les produits entrants, contribuant ainsi à rationaliser les processus de stockage et de récupération. 

De même, Vulcan, un bras robotique, utilise des caméras et l'analyse d'images pour prélever des articles en toute sécurité sur les étagères, en ajustant sa prise en fonction de la forme et de la position de chaque objet et même en reconnaissant quand une assistance humaine est nécessaire. Pendant ce temps, Cardinal, un autre robot doté de vision, est spécialisé dans le tri : il scanne des piles mixtes de colis et les place avec précision dans les chariots de sortie appropriés.

Fig. 4. Cardinal soulevant des paquets avec précision d'une pile.

La vision par ordinateur dans la navigation des véhicules autonomes

Jusqu'à présent, nous avons vu comment la vision par ordinateur aide les personnes et les robots à naviguer dans leur environnement. Mais elle est tout aussi cruciale pour les systèmes autonomes, comme les voitures autonomes, où la navigation dépend entièrement de ce que le véhicule peut voir et comprendre en temps réel.

Un bon exemple est le système Tesla Vision. Tesla a adopté une approche basée uniquement sur des caméras pour la conduite autonome, en supprimant le radar et les autres capteurs au profit d'un réseau de caméras qui offrent une vue complète à 360 degrés de l'environnement de la voiture. Ces caméras alimentent en données visuelles l'ordinateur Full Self-Driving (FSD), qui utilise des réseaux neuronaux profonds pour interpréter l'environnement et prendre des décisions de conduite en une fraction de seconde.

En fonction de ce qu'il voit, le système décide quand diriger, accélérer, freiner ou changer de voie, tout comme le ferait un conducteur humain, mais entièrement grâce à une entrée visuelle. Tesla améliore continuellement ce système en collectant et en apprenant à partir de grandes quantités de données de conduite réelles provenant de sa flotte.

Fig 5. Tesla utilise la vision par ordinateur pour une navigation sûre et autonome (Source : Tesla).

Avantages et inconvénients de la vision par ordinateur dans la navigation

Voici quelques avantages clés de l'utilisation de la vision par ordinateur dans la navigation, en particulier dans les systèmes où la précision, la sécurité et la prise de décision en temps réel sont essentielles :

  • Réduit la consommation de carburant : En aidant les conducteurs à éviter les embouteillages et les itinéraires avec arrêts et redémarrages, la vision par ordinateur peut réduire la consommation globale de carburant et le temps de trajet, rendant ainsi les déplacements quotidiens plus efficaces.
     
  • Détecte l'usure de la route et les problèmes d'infrastructure : Les solutions basées sur la vision peuvent rechercher les nids-de-poule, le marquage des voies effacé, les panneaux cassés et les infrastructures endommagées, fournissant aux équipes de maintenance des données fiables en temps réel.
  • S'intègre parfaitement avec d'autres outils d'IA : La vision par ordinateur peut être combinée avec des assistants vocaux, des modèles de prédiction comportementale ou des algorithmes d'optimisation d'itinéraire pour créer une expérience de navigation hautement intelligente et personnalisée.

Bien que la vision par ordinateur apporte de nombreux avantages à la navigation, elle présente également quelques limitations importantes à prendre en compte lors de la mise en œuvre de telles solutions. Voici quelques défis clés à garder à l'esprit :

  • Manque de généralisation : Les modèles entraînés sur des environnements ou des scénarios spécifiques ont souvent du mal à être déployés dans des contextes nouveaux ou changeants sans réentraînement.
  • Limitations d'éclairage : Les systèmes de vision dépendent d'un bon éclairage et d'une météo claire pour bien fonctionner. En cas de brouillard, de fortes pluies ou d'obscurité, leurs performances diminuent à moins d'être combinés avec des capteurs comme LiDAR ou radar.
  • Risques pour la vie privée: Les systèmes de navigation utilisant des caméras peuvent capturer des personnes et des biens privés sans consentement. Cela soulève des problèmes de confidentialité qui doivent être soigneusement abordés lors du développement et du déploiement.

Principaux points à retenir

La vision par ordinateur réinvente la navigation en rendant les cartes plus dynamiques, les systèmes de circulation plus intelligents et la mobilité plus accessible. Ce qui était autrefois des itinéraires statiques sont désormais des expériences interactives en temps réel, alimentées par des aperçus 3D immersifs, des directions guidées par la RA et des technologies de transport autonomes.

À mesure que la technologie progresse, il est probable que l'accent sera mis sur la création de systèmes plus inclusifs, adaptatifs et responsables. Les progrès continus dépendront de l'amélioration de la précision dans divers environnements, du maintien de performances fiables et de la protection de la vie privée des utilisateurs. L'avenir de la vision par ordinateur dans la navigation réside dans la création de solutions non seulement intelligentes, mais aussi réfléchies dans leur conception et leur impact.

Rejoignez notre communauté en pleine croissance ! Explorez notre dépôt GitHub pour en savoir plus sur l'IA, et consultez nos options de licence pour démarrer vos projets de Vision IA. Intéressé par des innovations telles que l'IA dans le commerce de détail et la vision par ordinateur dans l'agriculture ? Visitez nos pages de solutions pour en savoir plus !

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers