Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Véhicules autonomes

Découvrez comment les véhicules autonomes utilisent l'IA, la vision par ordinateur et des capteurs pour révolutionner le transport grâce à la sécurité, l'efficacité et l'innovation.

Les véhicules autonomes (VA), souvent appelés voitures autonomes, sont des systèmes de transport intelligents capables de détecter leur environnement et de fonctionner sans intervention humaine. Ces systèmes représentent le summum de l' IA dans l'innovation automobile, combinant un matériel sophistiqué avec des algorithmes logiciels avancés pour interpréter des environnements complexes. L'objectif principal de la technologie AV est d'améliorer la sécurité routière en minimisant les accidents causés par l'erreur humaine, tout en optimisant l'efficacité du trafic et en offrant une mobilité à ceux qui ne peuvent pas conduire. À la base, ces véhicules s'appuient sur l' intelligence artificielle (IA) pour percevoir les stimuli, traiter les informations et prendre des décisions de conduite en une fraction de seconde.

Technologies de perception et de détection

Pour qu'un véhicule autonome puisse se déplacer en toute sécurité, il doit posséder une compréhension globale de son environnement. Ceci est rendu possible grâce à une couche de perception qui agrège les données provenant d'une suite de capteurs.

  • Vision par ordinateur (CV): les caméras servent de capteurs visuels principaux, imitant la vue humaine. Des algorithmes traitent les flux vidéo pour reconnaître les marquages au sol, les feux de circulation et les panneaux de signalisation
  • Technologie LiDAR: la détection et la télémétrie par la lumière (LiDAR) utilisent des impulsions laser pour créer des cartes 3D précises et haute résolution de l' environnement, essentielles pour la perception de la profondeur.
  • Détection d'objets: des modèles d'apprentissage profond identifient et localisent les obstacles dynamiques. Les modèles à grande vitesse comme YOLO26 sont ici essentiels pour détecter les piétons et les autres véhicules avec une faible latence
  • Fusion de capteurs: aucun capteur n'est parfait dans toutes les conditions (par exemple, les caméras dans le brouillard). Les algorithmes de fusion combinent les données provenant des caméras, des radars et des LiDAR pour former un modèle environnemental robuste.
  • Segmentation sémantique: cette technique consiste à classer chaque pixel d'une image, ce qui aide le véhicule à distinguer la chaussée des trottoirs et de la végétation

Niveaux d'autonomie

Les capacités des systèmes autonomes sont classées selon les niveaux d'automatisation de la conduite SAE J3016, qui définissent le degré de contrôle informatique par rapport à l'intervention humaine.

  • Systèmes avancés d'aide à la conduite (ADAS): couvrant les niveaux 1 et 2, ces systèmes assistent la direction ou l'accélération (par exemple, le régulateur de vitesse adaptatif), mais exigent que le conducteur reste attentif.
  • Automatisation conditionnelle: au niveau 3, le véhicule peut gérer la plupart des tâches de conduite dans des conditions spécifiques, telles que les embouteillages sur autoroute, mais l'humain doit être prêt à prendre le relais lorsqu'il est alerté.
  • Automatisation élevée et complète: Les niveaux 4 et 5 représentent des véhicules capables de fonctionner sans intervention humaine. Le niveau 4 est limité aux zones géolocalisées, tandis que le niveau 5 vise une autonomie totale sur toutes les routes, ce qui nécessite souvent un matériel Edge AI puissant

Applications de l'IA dans le monde réel

La technologie des véhicules autonomes est actuellement déployée dans divers secteurs et s'appuie sur des calculs intensifs d'apprentissage automatique (ML) pour gérer la complexité du monde réel.

  1. Robotaxis: Des entreprises telles que Waymo utilisent des flottes de véhicules entièrement autonomes pour transporter des passagers en milieu urbain. Ces véhicules utilisent la modélisation prédictive pour anticiper le comportement des piétons et des autres conducteurs dans des environnements urbains complexes.
  2. Transport routier autonome: la logistique longue distance bénéficie de l'automatisation sur les itinéraires autoroutiers prévisibles. Des innovateurs tels qu'Aurora développent des camions autonomes qui exploitent la perception à longue portée pour améliorer le rendement énergétique et la sécurité.
  3. Livraison du dernier kilomètre: de petits robots autonomes utilisent le suivi d'objets pour se déplacer sur les trottoirs et livrer des colis, réduisant ainsi le coût et l'empreinte carbone de la logistique.

Distinguer les concepts apparentés

Il est important de différencier les véhicules autonomes des termes apparentés dans les domaines de la robotique et de l'automobile.

  • Vs. Robotique: Bien que les véhicules autonomes soient techniquement des robots mobiles, le domaine de la robotique est plus large et englobe les bras industriels fixes et les assistants humanoïdes. Les véhicules autonomes sont spécifiquement spécialisés dans la logique du transport.
  • Vs. Véhicules connectés (V2X): les véhicules connectés communiquent entre eux (V2V) et avec les infrastructures (V2I) pour partager des données telles que la vitesse et la position. Un véhicule peut être connecté sans être autonome, bien que la connectivité améliore souvent la sécurité des véhicules autonomes.
  • Vs. Téléopération: la téléopération consiste à piloter un véhicule à distance. En revanche, les véritables véhicules autonomes s'appuient sur des réseaux neuronaux embarqués pour prendre des décisions localement.

Mise en œuvre de la perception avec YOLO26

Une composante essentielle de tout système autonome est la capacité à track dans le temps. L'exemple suivant montre comment utiliser la fonction Plate-forme Ultralytics compatible ultralytics bibliothèque permettant d'effectuer le suivi d'objets sur une vidéo, simulant le système de perception d'un véhicule.

from ultralytics import YOLO

# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")

# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
    source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
    show=True,
)

# Process results (e.g., counting objects or estimating speed)
for r in results:
    print(r.boxes.xywh)  # Print bounding box coordinates

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant