Véhicules autonomes
Découvrez comment les véhicules autonomes utilisent l'IA, la vision par ordinateur et des capteurs pour révolutionner le transport grâce à la sécurité, l'efficacité et l'innovation.
Les véhicules autonomes (VA), souvent appelés voitures autonomes, sont des systèmes de transport intelligents capables de
détecter leur environnement et de fonctionner sans intervention humaine. Ces systèmes représentent le summum de l'
IA dans l'innovation automobile, combinant un
matériel sophistiqué avec des algorithmes logiciels avancés pour interpréter des environnements complexes. L'objectif principal de la
technologie AV est d'améliorer la sécurité routière en minimisant les accidents causés par l'erreur humaine, tout en optimisant l'efficacité du trafic
et en offrant une mobilité à ceux qui ne peuvent pas conduire. À la base, ces véhicules s'appuient sur l'
intelligence artificielle (IA) pour percevoir les
stimuli, traiter les informations et prendre des décisions de conduite en une fraction de seconde.
Technologies de perception et de détection
Pour qu'un véhicule autonome puisse se déplacer en toute sécurité, il doit posséder une compréhension globale de son environnement. Ceci
est rendu possible grâce à une couche de perception qui agrège les données provenant d'une suite de capteurs.
-
Vision par ordinateur (CV): les caméras servent de capteurs visuels principaux, imitant la vue humaine. Des algorithmes traitent les flux vidéo pour reconnaître les
marquages au sol, les feux de circulation et les panneaux de signalisation
-
Technologie LiDAR: la détection et la télémétrie par la lumière (LiDAR) utilisent des impulsions laser pour créer des cartes 3D précises et haute résolution de l'
environnement, essentielles pour la perception de la profondeur.
-
Détection d'objets: des modèles d'apprentissage profond identifient et localisent les obstacles dynamiques. Les modèles à grande vitesse comme
YOLO26 sont ici essentiels pour détecter les piétons et les
autres véhicules avec une faible latence
-
Fusion de capteurs: aucun capteur n'est parfait dans toutes les conditions (par exemple, les caméras dans le brouillard). Les algorithmes de fusion
combinent les données provenant des caméras, des radars et des LiDAR pour former un modèle environnemental robuste.
-
Segmentation sémantique: cette technique consiste à classer chaque pixel d'une image, ce qui aide le véhicule à distinguer la
chaussée des trottoirs et de la végétation
Niveaux d'autonomie
Les capacités des systèmes autonomes sont classées selon les
niveaux d'automatisation de la conduite SAE J3016, qui définissent le
degré de contrôle informatique par rapport à l'intervention humaine.
-
Systèmes avancés d'aide à la conduite (ADAS): couvrant les niveaux 1 et 2, ces systèmes assistent la direction ou l'accélération (par exemple, le régulateur de vitesse adaptatif), mais
exigent que le conducteur reste attentif.
-
Automatisation conditionnelle: au niveau 3, le véhicule peut gérer la plupart des tâches de conduite dans des conditions spécifiques, telles que les embouteillages sur autoroute, mais
l'humain doit être prêt à prendre le relais lorsqu'il est alerté.
-
Automatisation élevée et complète: Les niveaux 4 et 5 représentent des véhicules capables de fonctionner sans intervention humaine. Le niveau 4 est limité aux zones géolocalisées,
tandis que le niveau 5 vise une autonomie totale sur toutes les routes, ce qui nécessite souvent un
matériel Edge AI puissant
Applications de l'IA dans le monde réel
La technologie des véhicules autonomes est actuellement déployée dans divers secteurs et s'appuie sur des
calculs intensifs d'apprentissage automatique (ML) pour gérer la
complexité du monde réel.
-
Robotaxis: Des entreprises telles que Waymo utilisent des flottes de véhicules entièrement
autonomes pour transporter des passagers en milieu urbain. Ces véhicules utilisent la
modélisation prédictive pour anticiper le
comportement des piétons et des autres conducteurs dans des environnements urbains complexes.
-
Transport routier autonome: la logistique longue distance bénéficie de l'automatisation sur les itinéraires autoroutiers prévisibles.
Des innovateurs tels qu'Aurora développent des camions autonomes qui exploitent la perception à longue portée
pour améliorer le rendement énergétique et la sécurité.
-
Livraison du dernier kilomètre: de petits robots autonomes utilisent le
suivi d'objets pour se déplacer sur les trottoirs et livrer des colis,
réduisant ainsi le coût et l'empreinte carbone de la logistique.
Distinguer les concepts apparentés
Il est important de différencier les véhicules autonomes des termes apparentés dans les domaines de la robotique et de l'automobile.
-
Vs. Robotique: Bien que les véhicules autonomes soient techniquement des robots mobiles, le domaine de la robotique est plus large et englobe les bras industriels fixes
et les assistants humanoïdes. Les véhicules autonomes sont spécifiquement spécialisés dans la logique du transport.
-
Vs.
Véhicules connectés (V2X): les véhicules connectés communiquent entre eux (V2V) et avec les infrastructures (V2I) pour partager des données telles que la vitesse et la
position. Un véhicule peut être connecté sans être autonome, bien que la connectivité améliore souvent la sécurité des véhicules autonomes.
-
Vs.
Téléopération: la téléopération consiste à piloter un véhicule à distance. En revanche, les véritables véhicules autonomes s'appuient sur des
réseaux neuronaux embarqués pour prendre des décisions localement.
Mise en œuvre de la perception avec YOLO26
Une composante essentielle de tout système autonome est la capacité à track dans le temps. L'exemple suivant
montre comment utiliser la fonction Plate-forme Ultralytics compatible
ultralytics bibliothèque permettant d'effectuer le suivi d'objets sur une vidéo, simulant le système de perception d'un véhicule.
from ultralytics import YOLO
# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")
# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
show=True,
)
# Process results (e.g., counting objects or estimating speed)
for r in results:
print(r.boxes.xywh) # Print bounding box coordinates