Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Veicoli Autonomi

Scopri come i veicoli autonomi utilizzano l'IA, la computer vision e i sensori per rivoluzionare il trasporto con sicurezza, efficienza e innovazione.

I veicoli autonomi (AV), spesso definiti auto a guida autonoma, sono sistemi di trasporto intelligenti in grado di rilevare l'ambiente circostante e di operare senza l'intervento umano. di rilevare l'ambiente circostante e di operare senza l'intervento umano. Questa tecnologia rappresenta una convergenza di ingegneria meccanica e intelligenza artificiale (AI), progettata per per navigare in sicurezza su percorsi stradali complessi. L'obiettivo principale degli AV è ridurre gli incidenti causati da errori umani, ottimizzare il flusso del traffico e fornire soluzioni di mobilità a chi non è in grado di guidare. Sfruttando processori e algoritmi avanzati algoritmi avanzati, questi veicoli stanno trasformando il panorama dell'industria automobilistica. dell'industria automobilistica, spostando l'attenzione dal dal funzionamento incentrato sul conducente all'esperienza incentrata sul passeggero.

La tecnologia dietro la percezione e il controllo

Per navigare in sicurezza, un veicolo autonomo deve avere una comprensione completa dell'ambiente circostante. Questo obiettivo viene attraverso una sofisticata integrazione di sensori hardware e software di software di apprendimento profondo (DL). Il veicolo agisce come un dispositivo di bordo, elaborando grandi quantità di dati in tempo reale.

  • Suite di sensori: I veicoli AV utilizzano una combinazione di telecamere, radar e tecnologia LiDAR per mappare l'ambiente. Mentre le telecamere catturano dettagli visivi come i semafori, il LiDAR fornisce informazioni precise sulla profondità misurando i riflessi laser.
  • Visione artificiale: I dati grezzi del sensore vengono elaborati utilizzando algoritmi di visione artificiale (CV). I modelli ad alte prestazioni sono essenziali per compiti quali Rilevamento di oggetti per localizzare pedoni e altri veicoli e la segmentazione delle immagini per classify superfici stradali percorribili rispetto ai marciapiedi.
  • Fusione di sensori: Per garantire l'affidabilità, i dati provenienti da più fonti vengono combinati attraverso la fusione dei sensori. Questo processo riduce l'incertezza incertezza; ad esempio, se una telecamera è accecata dal bagliore, il radar può comunque detect un ostacolo davanti a sé.
  • Processo decisionale: Una volta percepito l'ambiente, il sistema utilizza la logica del Machine Learning (ML) per pianificare il percorso. logica di apprendimento automatico (ML) per la pianificazione del percorso e il controllo, determinando l'angolo di sterzata e l'accelerazione necessari per raggiungere una destinazione in modo sicuro.

Livelli di automazione

Le capacità dei veicoli autonomi sono classificate in sei livelli dalla norma SAE International J3016. SAE International J3016, che vanno dal livello 0 (nessuna automazione) al livello 5 (completa automazione).

  • Guida assistita (livelli 1-2): La maggior parte delle auto moderne è dotata di sistemi avanzati di assistenza alla guida (ADAS) come il cruise control adattivo o l'assistenza al mantenimento della corsia. Questi sistemi aiutano, ma richiedono che il conducente rimanga impegnato.
  • Da condizionata a completa automazione (livelli 3-5): I livelli superiori prevedono che il sistema assuma il controllo. Il livello 3 consente la guida a mani libere in condizioni specifiche, mentre il livello 5 rappresenta un veicolo in grado di guidare ovunque un essere umano. un veicolo in grado di guidare ovunque un essere umano, un obiettivo attivamente perseguito dai ricercatori che utilizzano il Reinforcement Learning. Apprendimento per rinforzo. La regolamentazione normativa da parte di organismi come la NHTSA è è fondamentale mentre queste tecnologie avanzano verso la diffusione al pubblico.

Applicazioni nel mondo reale

La tecnologia dei veicoli autonomi si sta attualmente diffondendo in vari settori, andando oltre la ricerca teorica e l'utilità pratica. alla utilità pratica.

  1. Servizi di robotaxi: Aziende come Waymo e Cruise gestiscono flotte di veicoli completamente autonomi in città selezionate. Questi veicoli si affidano a mezzi pesanti GPU per elaborare gli ambienti urbani e trasportare i passeggeri e trasportare i passeggeri senza la presenza di un conducente umano.
  2. Autotrasporto a lungo raggio: L'autotrasporto autonomo mira a risolvere le carenze logistiche. Automatizzando la guida in autostrada guida in autostrada, i camion possono operare in modo più efficiente. Startup come Aurora Innovation stanno stanno testando camion a guida autonoma che utilizzano la percezione a lungo raggio per gestire le velocità in autostrada e le distanze di frenata.

Esempio di implementazione del modello

Una componente fondamentale dello stack di percezione di un AV è il rilevamento di oggetti come automobili, autobus e segnali stradali. Il codice codice Python che segue dimostra come utilizzare un sistema di YOLO11 per eseguire un'inferenza su un'immagine, simulando il sistema di visione di un il sistema di visione di un'auto a guida autonoma.

from ultralytics import YOLO

# Load a pretrained YOLO11 model capable of detecting common road objects
model = YOLO("yolo11n.pt")

# Perform inference on an image (e.g., a dashboard camera view)
# The model predicts bounding boxes and classes for objects in the scene
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Display the detection results to visualize what the 'vehicle' sees
results[0].show()

Veicoli autonomi vs. Robotica

Anche se gli AV sono tecnicamente un sottoinsieme della robotica, i termini sono distinti per quanto riguarda l'ambito di applicazione. La robotica comprende qualsiasi macchina programmabile che interagisce con il mondo fisico, compresi i bracci industriali fissi utilizzati nella produzione. I veicoli autonomi, invece, si riferiscono specificamente a robot mobili progettati per il trasporto. Tuttavia, condividono le tecnologie di base, come la localizzazione e la mappatura simultanea (SLAM) e la necessità di un'elaborazione Edge AI a bassa latenza.

Sfide di sviluppo

La creazione di sistemi completamente autonomi richiede enormi quantità di di dati di addestramento per gestire i "casi limite", ossia eventi rari come eventi rari come condizioni meteorologiche avverse o comportamenti umani irregolari. Gli sviluppatori utilizzano spesso piattaforme di simulazione come CARLA per testare gli algoritmi in modo sicuro prima delle prove reali. Inoltre, l'implementazione di modelli sull'hardware del veicolo comporta tecniche come la quantizzazione dei modelli per garantire un'esecuzione efficienti sui sistemi embedded. Quadri come PyTorch e TensorFlow rimangono gli strumenti standard per l'addestramento delle reti neurali complesse che guidano questi veicoli.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora