Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Autonome Fahrzeuge

Entdecken Sie, wie autonome Fahrzeuge KI, Computer Vision und Sensoren nutzen, um den Transport durch Sicherheit, Effizienz und Innovation zu revolutionieren.

Autonome Fahrzeuge (AVs), häufig auch als selbstfahrende Autos bezeichnet, sind intelligente Transportsysteme, die in der Lage sind, ihre Umgebung zu erkennen und ohne menschliches Zutun zu fahren. Diese Technologie stellt eine Konvergenz von Maschinenbau und Künstlicher Intelligenz (KI), die entwickelt wurde komplexe Verkehrswege sicher zu befahren. Das Hauptziel von AVs ist es, durch menschliches Versagen verursachte Unfälle zu reduzieren, den Verkehrsfluss zu optimieren und Mobilitätslösungen für Menschen anzubieten, die nicht selbst fahren können. Durch den Einsatz von fortschrittlichen Prozessoren und Algorithmen verändern diese Fahrzeuge die Landschaft der Automobilbranche und verlagern den Schwerpunkt vom fahrerzentrierten Betrieb hin zu fahrgastzentrierten Erfahrungen.

Die Technologie hinter Wahrnehmung und Kontrolle

Um sicher zu navigieren, muss ein autonomes Fahrzeug ein umfassendes Verständnis seiner Umgebung haben. Dies wird durch eine ausgeklügelte Integration von Hardware-Sensoren und Deep Learning (DL) Software. Das Fahrzeug fungiert als als Edge-Device, das große Datenmengen in Echtzeit verarbeitet.

  • Sensor-Suite: AVs nutzen eine Kombination aus Kameras, Radar und LiDAR-Technologie, um die Umgebung zu erfassen. Während Kameras visuelle Details wie Verkehrsampeln erfassen, liefert LiDAR durch Messung von Laserreflexionen präzise Tiefeninformationen.
  • Computer Vision: Die rohen Sensordaten werden mit Hilfe von Computer Vision (CV) Algorithmen verarbeitet. Leistungsstarke Modelle sind unerlässlich für Aufgaben wie Objekterkennung zur Lokalisierung von Fußgängern und anderen Fahrzeuge und die Bildsegmentierung zur classify von befahrbaren Fahrbahnen und Gehwegen.
  • Sensor-Fusion: Um Zuverlässigkeit zu gewährleisten, werden Daten aus mehreren Quellen durch Sensor-Fusion kombiniert. Dieser Prozess reduziert Wenn beispielsweise eine Kamera durch Blendung geblendet wird, kann das Radar trotzdem ein Hindernis detect .
  • Entscheidungsfindung: Sobald die Umgebung wahrgenommen wurde, verwendet das System Logik des maschinellen Lernens (ML) für die Wegplanung und Steuerung und bestimmt den Lenkwinkel und die Beschleunigung, die erforderlich sind, um ein Ziel sicher zu erreichen.

Stufen der Automatisierung

Die Fähigkeiten von autonomen Fahrzeugen werden in sechs Stufen nach dem SAE International J3016-Norm in sechs Stufen eingeteilt, die von Stufe 0 (keine Automatisierung) bis Stufe 5 (vollständige Automatisierung) reichen.

  • Assistiertes Fahren (Stufen 1-2): Die meisten modernen Autos verfügen über fortschrittliche Fahrerassistenzsysteme (ADAS) wie einen adaptiven Geschwindigkeitsregler oder einen Spurhalteassistenten. Diese Systeme sind hilfreich, erfordern aber, dass der Fahrer aktiv bleibt.
  • Bedingte bis vollständige Automatisierung (Stufen 3-5): Bei höheren Stufen übernimmt das System die vollständige Kontrolle. Stufe 3 ermöglicht das selbstständige Fahren unter bestimmten Bedingungen, während Stufe 5 ein Fahrzeug darstellt, das überall dort fahren kann, wo ein Mensch fahren kann. überall fahren kann, wo auch ein Mensch fahren kann, ein Ziel, das von Forschern aktiv mit Verstärkungslernen. Regulatorische Aufsicht durch Einrichtungen wie die NHTSA ist ist von entscheidender Bedeutung, wenn diese Technologien auf dem Weg zum öffentlichen Einsatz sind.

Anwendungsfälle in der Praxis

Die Technologie für autonome Fahrzeuge wird derzeit in verschiedenen Sektoren eingesetzt und geht über die theoretische Forschung zum praktischen Nutzen.

  1. Robotaxi-Dienste: Unternehmen wie Waymo und Cruise betreiben Flotten von vollautonomen Fahrzeugen in ausgewählten Städten. Diese Fahrzeuge sind mit Schwerlastfahrzeugen GPU Rechenleistung, um städtische Umgebungen zu verarbeiten und Fahrgäste ohne menschlichen Fahrer zu befördern.
  2. Langstrecken-Lkw: Autonomer Lkw-Verkehr soll Engpässe in der Logistik beseitigen. Durch die Automatisierung des Straßenverkehrs können Lkw effizienter arbeiten. Start-ups wie Aurora Innovation testen selbstfahrende Lkw, die mit Hilfe von Fernwahrnehmung Geschwindigkeiten und Bremswege auf Autobahnen steuern.

Beispiel für eine Modellimplementierung

Eine grundlegende Komponente des Wahrnehmungsstapels eines AV ist die Erkennung von Objekten wie Autos, Bussen und Verkehrssignalen. Der folgende Python demonstriert die Verwendung eines vortrainierten YOLO11 Modells für die Inferenz eines Bildes verwendet wird, um das das Sichtsystem eines selbstfahrenden Autos simuliert.

from ultralytics import YOLO

# Load a pretrained YOLO11 model capable of detecting common road objects
model = YOLO("yolo11n.pt")

# Perform inference on an image (e.g., a dashboard camera view)
# The model predicts bounding boxes and classes for objects in the scene
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Display the detection results to visualize what the 'vehicle' sees
results[0].show()

Autonome Fahrzeuge vs. Robotik

AVs sind zwar technisch gesehen ein Teilbereich der Robotik, aber die Begriffe unterscheiden sich im Umfang. Die Robotik umfasst im weitesten Sinne jede programmierbare Maschine, die mit der physischen Welt interagiert, einschließlich stationärer Industriearme, die in der Fertigung eingesetzt werden. Im Gegensatz dazu beziehen sich autonome Fahrzeuge speziell auf mobile Roboter für den Transport. Sie verfügen jedoch über gemeinsame Kerntechnologien, wie z. B. Gleichzeitige Lokalisierung und Kartierung (SLAM) und der Bedarf an Edge AI-Verarbeitung mit geringer Latenz.

Herausforderungen bei der Entwicklung

Die Entwicklung vollständig autonomer Systeme erfordert große Mengen an Trainingsdaten, um mit "Grenzfällen" - seltenen Ereignisse wie Unwetter oder unberechenbares menschliches Verhalten. Entwickler nutzen oft Simulationsplattformen wie CARLA, um Algorithmen sicher zu testen, bevor sie in der realen Welt erprobt werden. Darüber hinaus umfasst der Einsatz dieser Modelle auf der Fahrzeughardware Techniken wie Modellquantisierung, um sicherzustellen, dass sie effizient auf eingebetteten Systemen laufen. Rahmenwerke wie PyTorch und TensorFlow bleiben die Standardwerkzeuge für das Training der komplexen neuronalen Netze, die diese Fahrzeuge steuern.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten