Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Autonome Fahrzeuge

Entdecken Sie die Zukunft der Mobilität mit autonomen Fahrzeugen. Erfahren Sie, wie Ultralytics Echtzeitwahrnehmung, Objekterkennung und Sensorfusion für autonome Fahrzeuge ermöglicht.

Autonome Fahrzeuge (AVs), häufig auch als selbstfahrende Autos bezeichnet, sind intelligente Transportsysteme, die ihre Umgebung wahrnehmen und ohne menschliches Zutun funktionieren können. Diese Systeme stellen den Höhepunkt der KI-Innovation im Automobilbereich dar und kombinieren ausgefeilte Hardware mit fortschrittlichen Softwarealgorithmen, um komplexe Umgebungen zu interpretieren. Das Hauptziel der AV-Technologie besteht darin, die Verkehrssicherheit durch die Minimierung von Unfällen aufgrund menschlicher Fehler zu verbessern, gleichzeitig die Verkehrseffizienz zu optimieren und Menschen, die nicht selbst fahren können, Mobilität zu ermöglichen. Im Kern stützen sich diese Fahrzeuge auf künstliche Intelligenz (KI), um Reize wahrzunehmen, Informationen zu verarbeiten und in Sekundenbruchteilen Fahrentscheidungen zu treffen.

Wahrnehmungs- und Sensortechnologien

Damit ein autonomes Fahrzeug sicher navigieren kann, muss es seine Umgebung umfassend verstehen. Dies wird durch eine Wahrnehmungsschicht erreicht, die Daten aus einer Reihe von Sensoren aggregiert.

  • Computer Vision (CV): Kameras dienen als primäre visuelle Sensoren und ahmen das menschliche Sehen nach. Algorithmen verarbeiten Videofeeds, um Fahrbahnmarkierungen, Ampeln und Schilder zu erkennen.
  • LiDAR-Technologie: Light Detection and Ranging (LiDAR) verwendet Laserimpulse, um präzise, hochauflösende 3D-Karten der Umgebung zu erstellen, die für die Tiefenwahrnehmung unerlässlich sind.
  • Objekterkennung: Deep-Learning-Modelle identifizieren und lokalisieren dynamische Hindernisse. Hochgeschwindigkeitsmodelle wie YOLO26 sind hier entscheidend für die Erkennung von Fußgängern und anderen Fahrzeugen mit geringer Latenz.
  • Sensorfusion: Kein einzelner Sensor ist unter allen Bedingungen perfekt (z. B. Kameras bei Nebel). Fusionsalgorithmen kombinieren Daten von Kameras, Radar und LiDAR, um ein robustes Umgebungsmodell zu erstellen.
  • Semantische Segmentierung: Diese Technik klassifiziert jedes Pixel in einem Bild und hilft dem Fahrzeug, zwischen befahrbarer Fahrbahn, Gehwegen und Vegetation zu unterscheiden.

Autonomiestufen

Die Fähigkeiten autonomer Systeme werden nach den SAE J3016-Stufen der Fahrautomatisierung kategorisiert, die das Ausmaß der Computersteuerung im Vergleich zum menschlichen Eingriff definieren.

  • Fortgeschrittene Fahrerassistenzsysteme (ADAS): Diese Systeme decken die Stufen 1 und 2 ab und unterstützen das Lenken oder Beschleunigen (z. B. adaptive Geschwindigkeitsregelung), verlangen aber vom Fahrer, dass er aufmerksam bleibt.
  • Bedingte Automatisierung: Auf Stufe 3 kann das Fahrzeug die meisten Fahraufgaben unter bestimmten Bedingungen, wie z. B. Staus auf Autobahnen, übernehmen, aber der Mensch muss bereit sein, bei einer Warnung die Kontrolle zu übernehmen.
  • Hohe und vollständige Automatisierung: Die Stufen 4 und 5 stehen für Fahrzeuge, die ohne menschliches Zutun betrieben werden können. Stufe 4 ist auf geofence-abgegrenzte Bereiche beschränkt, während Stufe 5 auf vollständige Autonomie auf jeder Straße abzielt und oft leistungsstarke Edge-KI-Hardware erfordert.

Real-World AI-Anwendungen

Die Technologie für autonome Fahrzeuge wird derzeit in verschiedenen Sektoren eingesetzt und stützt sich auf umfangreiche Berechnungen im Bereich des maschinellen Lernens (ML), um die Komplexität der realen Welt zu bewältigen.

  1. Robotaxis: Unternehmen wie Waymo nutzen Flotten vollständig autonomer Fahrzeuge, um Passagiere in städtischen Umgebungen zu befördern. Diese Fahrzeuge verwenden vorausschauende Modelle, um das Verhalten von Fußgängern und anderen Fahrern in komplexen Stadtlandschaften zu antizipieren.
  2. Autonomes Lkw-Fahren: Die Fernverkehrslogistik profitiert von der Automatisierung auf vorhersehbaren Autobahnstrecken. Innovatoren wie Aurora entwickeln selbstfahrende Lkw, die mithilfe von Fernerkundung die Kraftstoffeffizienz und Sicherheit verbessern.
  3. Last-Mile-Lieferung: Kleine, autonome Roboter nutzen Objektverfolgung, um sich auf Gehwegen zu bewegen und Pakete zu liefern, wodurch die Kosten und der CO2-Fußabdruck der Logistik reduziert werden.

Unterscheidung von verwandten Konzepten

Es ist wichtig, autonome Fahrzeuge von verwandten Begriffen aus den Bereichen Robotik und Automobilbau zu unterscheiden.

  • Vs. Robotik: Während autonome Fahrzeuge technisch gesehen mobile Roboter sind, ist das Gebiet der Robotik breiter gefasst und umfasst auch stationäre Industrieroboterarme und humanoide Assistenzroboter. Autonome Fahrzeuge sind speziell auf Transportlogik spezialisiert.
  • Vs. Vernetzte Fahrzeuge (V2X): Vernetzte Fahrzeuge kommunizieren miteinander (V2V) und mit der Infrastruktur (V2I), um Daten wie Geschwindigkeit und Standort auszutauschen. Ein Fahrzeug kann vernetzt sein, ohne autonom zu sein, obwohl die Vernetzung oft die Sicherheit von autonomen Fahrzeugen erhöht.
  • Vs. Teleoperation: Bei der Teleoperation steuert ein Mensch ein Fahrzeug aus der Ferne. Im Gegensatz dazu verlassen sich echte autonome Fahrzeuge auf integrierte neuronale Netze, um Entscheidungen vor Ort zu treffen.

Implementierung der Wahrnehmung mit YOLO26

Eine wichtige Komponente jedes autonomen Systems ist die Fähigkeit, track über einen längeren Zeitraum hinweg zu track . Das folgende Beispiel zeigt, wie man die Ultralytics kompatibel ultralytics Bibliothek zur Durchführung der Objektverfolgung in einem Video, wobei das Wahrnehmungssystem eines Fahrzeugs simuliert wird.

from ultralytics import YOLO

# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")

# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
    source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
    show=True,
)

# Process results (e.g., counting objects or estimating speed)
for r in results:
    print(r.boxes.xywh)  # Print bounding box coordinates

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten