Autonome Fahrzeuge
Entdecken Sie die Zukunft der Mobilität mit autonomen Fahrzeugen. Erfahren Sie, wie Ultralytics Echtzeitwahrnehmung, Objekterkennung und Sensorfusion für autonome Fahrzeuge ermöglicht.
Autonome Fahrzeuge (AVs), häufig auch als selbstfahrende Autos bezeichnet, sind intelligente Transportsysteme, die
ihre Umgebung wahrnehmen und ohne menschliches Zutun funktionieren können. Diese Systeme stellen den Höhepunkt der
KI-Innovation im Automobilbereich dar und kombinieren
ausgefeilte Hardware mit fortschrittlichen Softwarealgorithmen, um komplexe Umgebungen zu interpretieren. Das Hauptziel der
AV-Technologie besteht darin, die Verkehrssicherheit durch die Minimierung von Unfällen aufgrund menschlicher Fehler zu verbessern, gleichzeitig die Verkehrseffizienz zu optimieren
und Menschen, die nicht selbst fahren können, Mobilität zu ermöglichen. Im Kern stützen sich diese Fahrzeuge auf
künstliche Intelligenz (KI), um
Reize wahrzunehmen, Informationen zu verarbeiten und in Sekundenbruchteilen Fahrentscheidungen zu treffen.
Wahrnehmungs- und Sensortechnologien
Damit ein autonomes Fahrzeug sicher navigieren kann, muss es seine Umgebung umfassend verstehen. Dies
wird durch eine Wahrnehmungsschicht erreicht, die Daten aus einer Reihe von Sensoren aggregiert.
-
Computer Vision (CV): Kameras dienen als primäre visuelle Sensoren und ahmen das menschliche Sehen nach. Algorithmen verarbeiten Videofeeds, um
Fahrbahnmarkierungen, Ampeln und Schilder zu erkennen.
-
LiDAR-Technologie: Light Detection and Ranging (LiDAR) verwendet Laserimpulse, um präzise, hochauflösende 3D-Karten der
Umgebung zu erstellen, die für die Tiefenwahrnehmung unerlässlich sind.
-
Objekterkennung: Deep-Learning-Modelle identifizieren und lokalisieren dynamische Hindernisse. Hochgeschwindigkeitsmodelle wie
YOLO26 sind hier entscheidend für die Erkennung von Fußgängern und
anderen Fahrzeugen mit geringer Latenz.
-
Sensorfusion: Kein einzelner Sensor ist unter allen Bedingungen perfekt (z. B. Kameras bei Nebel). Fusionsalgorithmen
kombinieren Daten von Kameras, Radar und LiDAR, um ein robustes Umgebungsmodell zu erstellen.
-
Semantische Segmentierung: Diese Technik klassifiziert jedes Pixel in einem Bild und hilft dem Fahrzeug, zwischen befahrbarer
Fahrbahn, Gehwegen und Vegetation zu unterscheiden.
Autonomiestufen
Die Fähigkeiten autonomer Systeme werden nach den
SAE J3016-Stufen der Fahrautomatisierung kategorisiert, die das
Ausmaß der Computersteuerung im Vergleich zum menschlichen Eingriff definieren.
-
Fortgeschrittene Fahrerassistenzsysteme (ADAS): Diese Systeme decken die Stufen 1 und 2 ab und unterstützen das Lenken oder Beschleunigen (z. B. adaptive Geschwindigkeitsregelung),
verlangen aber vom Fahrer, dass er aufmerksam bleibt.
-
Bedingte Automatisierung: Auf Stufe 3 kann das Fahrzeug die meisten Fahraufgaben unter bestimmten Bedingungen, wie z. B. Staus auf Autobahnen, übernehmen, aber
der Mensch muss bereit sein, bei einer Warnung die Kontrolle zu übernehmen.
-
Hohe und vollständige Automatisierung: Die Stufen 4 und 5 stehen für Fahrzeuge, die ohne menschliches Zutun betrieben werden können. Stufe 4 ist auf geofence-abgegrenzte Bereiche beschränkt,
während Stufe 5 auf vollständige Autonomie auf jeder Straße abzielt und oft leistungsstarke
Edge-KI-Hardware erfordert.
Real-World AI-Anwendungen
Die Technologie für autonome Fahrzeuge wird derzeit in verschiedenen Sektoren eingesetzt und stützt sich auf umfangreiche
Berechnungen im Bereich des maschinellen Lernens (ML), um
die Komplexität der realen Welt zu bewältigen.
-
Robotaxis: Unternehmen wie Waymo nutzen Flotten vollständig
autonomer Fahrzeuge, um Passagiere in städtischen Umgebungen zu befördern. Diese Fahrzeuge verwenden
vorausschauende Modelle, um das
Verhalten von Fußgängern und anderen Fahrern in komplexen Stadtlandschaften zu antizipieren.
-
Autonomes Lkw-Fahren: Die Fernverkehrslogistik profitiert von der Automatisierung auf vorhersehbaren Autobahnstrecken.
Innovatoren wie Aurora entwickeln selbstfahrende Lkw, die mithilfe von Fernerkundung
die Kraftstoffeffizienz und Sicherheit verbessern.
-
Last-Mile-Lieferung: Kleine, autonome Roboter nutzen
Objektverfolgung, um sich auf Gehwegen zu bewegen und Pakete zu liefern,
wodurch die Kosten und der CO2-Fußabdruck der Logistik reduziert werden.
Unterscheidung von verwandten Konzepten
Es ist wichtig, autonome Fahrzeuge von verwandten Begriffen aus den Bereichen Robotik und Automobilbau zu unterscheiden.
-
Vs. Robotik: Während autonome Fahrzeuge technisch gesehen mobile Roboter sind, ist das Gebiet der Robotik breiter gefasst und umfasst auch stationäre Industrieroboterarme
und humanoide Assistenzroboter. Autonome Fahrzeuge sind speziell auf Transportlogik spezialisiert.
-
Vs.
Vernetzte Fahrzeuge (V2X): Vernetzte Fahrzeuge kommunizieren miteinander (V2V) und mit der Infrastruktur (V2I), um Daten wie Geschwindigkeit und Standort auszutauschen.
Ein Fahrzeug kann vernetzt sein, ohne autonom zu sein, obwohl die Vernetzung oft die Sicherheit von autonomen Fahrzeugen erhöht.
-
Vs.
Teleoperation: Bei der Teleoperation steuert ein Mensch ein Fahrzeug aus der Ferne. Im Gegensatz dazu verlassen sich echte autonome Fahrzeuge auf integrierte
neuronale Netze, um Entscheidungen vor Ort zu treffen.
Implementierung der Wahrnehmung mit YOLO26
Eine wichtige Komponente jedes autonomen Systems ist die Fähigkeit, track über einen längeren Zeitraum hinweg zu track . Das folgende Beispiel
zeigt, wie man die Ultralytics kompatibel
ultralytics Bibliothek zur Durchführung der Objektverfolgung in einem Video, wobei das Wahrnehmungssystem eines Fahrzeugs simuliert wird.
from ultralytics import YOLO
# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")
# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
show=True,
)
# Process results (e.g., counting objects or estimating speed)
for r in results:
print(r.boxes.xywh) # Print bounding box coordinates