Entdecken Sie, wie autonome Fahrzeuge KI, Computer Vision und Sensoren nutzen, um den Transport durch Sicherheit, Effizienz und Innovation zu revolutionieren.
Autonome Fahrzeuge (AVs), häufig auch als selbstfahrende Autos bezeichnet, sind intelligente Transportsysteme, die in der Lage sind, ihre Umgebung zu erkennen und ohne menschliches Zutun zu fahren. Diese Technologie stellt eine Konvergenz von Maschinenbau und Künstlicher Intelligenz (KI), die entwickelt wurde komplexe Verkehrswege sicher zu befahren. Das Hauptziel von AVs ist es, durch menschliches Versagen verursachte Unfälle zu reduzieren, den Verkehrsfluss zu optimieren und Mobilitätslösungen für Menschen anzubieten, die nicht selbst fahren können. Durch den Einsatz von fortschrittlichen Prozessoren und Algorithmen verändern diese Fahrzeuge die Landschaft der Automobilbranche und verlagern den Schwerpunkt vom fahrerzentrierten Betrieb hin zu fahrgastzentrierten Erfahrungen.
Um sicher zu navigieren, muss ein autonomes Fahrzeug ein umfassendes Verständnis seiner Umgebung haben. Dies wird durch eine ausgeklügelte Integration von Hardware-Sensoren und Deep Learning (DL) Software. Das Fahrzeug fungiert als als Edge-Device, das große Datenmengen in Echtzeit verarbeitet.
Die Fähigkeiten von autonomen Fahrzeugen werden in sechs Stufen nach dem SAE International J3016-Norm in sechs Stufen eingeteilt, die von Stufe 0 (keine Automatisierung) bis Stufe 5 (vollständige Automatisierung) reichen.
Die Technologie für autonome Fahrzeuge wird derzeit in verschiedenen Sektoren eingesetzt und geht über die theoretische Forschung zum praktischen Nutzen.
Eine grundlegende Komponente des Wahrnehmungsstapels eines AV ist die Erkennung von Objekten wie Autos, Bussen und Verkehrssignalen. Der folgende Python demonstriert die Verwendung eines vortrainierten YOLO11 Modells für die Inferenz eines Bildes verwendet wird, um das das Sichtsystem eines selbstfahrenden Autos simuliert.
from ultralytics import YOLO
# Load a pretrained YOLO11 model capable of detecting common road objects
model = YOLO("yolo11n.pt")
# Perform inference on an image (e.g., a dashboard camera view)
# The model predicts bounding boxes and classes for objects in the scene
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Display the detection results to visualize what the 'vehicle' sees
results[0].show()
AVs sind zwar technisch gesehen ein Teilbereich der Robotik, aber die Begriffe unterscheiden sich im Umfang. Die Robotik umfasst im weitesten Sinne jede programmierbare Maschine, die mit der physischen Welt interagiert, einschließlich stationärer Industriearme, die in der Fertigung eingesetzt werden. Im Gegensatz dazu beziehen sich autonome Fahrzeuge speziell auf mobile Roboter für den Transport. Sie verfügen jedoch über gemeinsame Kerntechnologien, wie z. B. Gleichzeitige Lokalisierung und Kartierung (SLAM) und der Bedarf an Edge AI-Verarbeitung mit geringer Latenz.
Die Entwicklung vollständig autonomer Systeme erfordert große Mengen an Trainingsdaten, um mit "Grenzfällen" - seltenen Ereignisse wie Unwetter oder unberechenbares menschliches Verhalten. Entwickler nutzen oft Simulationsplattformen wie CARLA, um Algorithmen sicher zu testen, bevor sie in der realen Welt erprobt werden. Darüber hinaus umfasst der Einsatz dieser Modelle auf der Fahrzeughardware Techniken wie Modellquantisierung, um sicherzustellen, dass sie effizient auf eingebetteten Systemen laufen. Rahmenwerke wie PyTorch und TensorFlow bleiben die Standardwerkzeuge für das Training der komplexen neuronalen Netze, die diese Fahrzeuge steuern.