Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Verkehrsvideo-Erkennung bei Nacht: Ein Blick darauf, warum Genauigkeit entscheidend ist

Abirami Vina

5 Min. Lesezeit

3. Oktober 2025

Von schlechter Sicht bis hin zu Blendung – erfahren Sie, was die Genauigkeit der Verkehrsvideoerkennung bei Nacht zu einer Herausforderung macht und wie Computer Vision die Sicherheit und den Verkehrsfluss verbessert.

Straßen sehen im Dunkeln anders aus, nicht nur für Autofahrer, sondern auch für die Systeme, die für ihre Sicherheit verantwortlich sind. Schlechte Sicht, Scheinwerferblendung und sich schnell bewegende Reflexionen können die Fahrzeugerkennung bei Nacht erschweren. 

Traditionelle Methoden, wie z. B. manuelle Beobachtung oder bewegungsbasierte Kameras, stützen sich hauptsächlich auf menschliches Urteilsvermögen und einfache Bewegungshinweise. Dies kann bei schlechten Lichtverhältnissen oder komplexen Verkehrsbedingungen unzuverlässig sein. Diese Methoden können Fahrzeuge oder Fußgänger falsch identifizieren, was zu falschen Erkennungen oder verpassten Beobachtungen führt.  

Abb. 1. Ein Beispiel für eine schlecht beleuchtete Fahrbahn bei Nacht (Quelle)

Künstliche Intelligenz (KI), Deep Learning und Computer Vision können die Lücke schließen, indem sie die Fahrzeugerkennung und -identifizierung automatisieren. Insbesondere Computer Vision ist ein Zweig der KI, der es Maschinen ermöglicht, visuelle Daten zu sehen und zu interpretieren. Wenn es um die Videoerkennung von nächtlichem Verkehr geht, können Vision-KI-Modelle über Helligkeit oder Bewegung hinausgehen und lernen, komplexe Muster zu erkennen, die die Genauigkeit verbessern.

Beispielsweise sind Computer-Vision-Modelle wie Ultralytics YOLO26 und Ultralytics YOLO11 für ihre Geschwindigkeit und Präzision bekannt. Sie können Video- und Bilddaten in Echtzeit verarbeiten, mehrere Objekte innerhalb eines Frames erkennen und klassifizieren und sie über Sequenzen hinweg verfolgen. 

Diese Fähigkeiten werden durch verschiedene Vision-Aufgaben ermöglicht, wie z. B. Objekterkennung und Instanzsegmentierung, selbst wenn Scheinwerfer, Schatten oder überlappende Fahrzeuge die Erkennung erschweren. Sie ermöglichen es dem Modell, Objekte zu identifizieren, zu klassifizieren und zu differenzieren.

In diesem Artikel werden wir die Herausforderungen der nächtlichen Verkehrsüberwachung untersuchen, sehen, wie Computer Vision diese bewältigt, und wo Vision AI in realen Verkehrsüberwachungssystemen eingesetzt wird. Los geht's! 

Herausforderungen bei der Nachtzeiterkennung

Bevor wir untersuchen, wie Computer Vision die Herausforderungen der nächtlichen Verkehrserkennung löst, wollen wir uns ansehen, warum es so schwierig ist, Fahrzeuge nach Einbruch der Dunkelheit zu erkennen. Hier sind einige Faktoren, die zu berücksichtigen sind:  

  • Geringe Sichtbarkeit: Begrenzte Beleuchtung und schlechte Lichtverhältnisse erschweren es Kameras, scharfe, detaillierte Aufnahmen zu machen. Durch die reduzierte Bildqualität können Fahrzeuge mit dem Hintergrund verschmelzen oder falsch identifiziert werden.
  • Wetterbedingungen: Regen, Nebel, Dunst oder sogar Staub können die Videoqualität weiter beeinträchtigen. Diese Bedingungen erschweren es Erkennungssystemen, Fahrzeuge von ihrer Umgebung zu unterscheiden.
  • Scheinwerfer und Rückleuchten: Helle Lichtstrahlen und Reflexionen können Kameras überfordern. Dies kann zu einer falschen Fahrzeugerkennung führen, bei der Lichtflecken fälschlicherweise für Fahrzeuge gehalten werden, was die Erkennungsalgorithmen verwirrt und die Genauigkeit verringert.
  • Verdeckung von Fahrzeugen: Bei starkem Verkehrsaufkommen können Fahrzeuge teilweise oder vollständig hinter anderen verborgen sein. Die Verdeckung erschwert die Fahrzeugverfolgung, -zählung und -klassifizierung, insbesondere wenn sich mehrere Verkehrsteilnehmer innerhalb eines einzelnen Frames überlappen.

Der Bedarf an Benchmark-Datensätzen und Metriken für Nachtaufnahmen

Computer-Vision-Modelle werden mithilfe großer Bildersammlungen trainiert, die als Datensätze bekannt sind. Diese Datensätze werden sorgfältig mit den Objekten beschriftet, die sie enthalten, wie z. B. Autos, Lastwagen, Fußgänger und Fahrräder, und dienen als Grundlage für das Training. Durch das Studium dieser beschrifteten Beispiele lernt das Modell, Muster zu erkennen, wodurch es Objekte in neuem Videomaterial identifizieren und erkennen kann.

Abb. 2. Verwendung von Computer Vision zur Erkennung von Fahrzeugen und Fußgängern im Straßenverkehr (Quelle)

Während des Trainings extrahiert das Modell Merkmale aus den Daten und verwendet sie, um die Erkennungsgenauigkeit zu verbessern. Dieser Prozess hilft, verpasste Erkennungen und Fehlalarme zu reduzieren, wenn das Modell realen Verkehrsszenen ausgesetzt ist.

Das Erstellen von Datensätzen oder Datensammlungen für Nachtbedingungen ist jedoch viel schwieriger. Die schlechte Videoqualität macht die Beschriftung zeitaufwändig und fehleranfällig. Auch seltene, aber wichtige Ereignisse wie Unfälle oder ungewöhnliches Fahrverhalten können in nächtlichen Umgebungen schwer zu erfassen sein. Dies führt zu einer begrenzten Anzahl von Trainingsbeispielen, aus denen Modelle lernen können. 

Um dieses Problem zu beheben, haben Forscher spezielle Benchmark-Datensätze entwickelt. Ein Benchmark-Datensatz ist mehr als nur eine Sammlung von Bildern. Er umfasst standardisierte Beschriftungen, Bewertungsprotokolle und Leistungskennzahlen wie Präzision, Trefferrate und mittlere durchschnittliche Präzision (mAP). Diese Metriken ermöglichen es, verschiedene Algorithmen unter den gleichen Bedingungen zu testen und zu vergleichen, wodurch eine faire und konsistente Bewertung gewährleistet wird.

Beispielsweise enthält der ExDark Benchmark-Datensatz 7.363 Bilder bei schwachem Licht aus 12 Objektkategorien (Fahrrad, Boot, Flasche, Bus, Auto, Katze, Stuhl, Tasse, Hund, Motorrad, Personen, Tisch). Jedes Bild ist mit Bounding Boxes annotiert, und der Datensatz wird häufig in der Forschung verwendet, um Objekterkennung und -klassifizierung bei schlechten Lichtverhältnissen zu bewerten.

Abb. 3. Ein Einblick in den ExDark-Datensatz (Quelle)

In ähnlicher Weise bietet der NightOwls Benchmark-Datensatz rund 115.000 Nachtaufnahmen mit etwa 279.000 Fußgänger-Annotationen. Er hat sich zu einer wichtigen Ressource für die Bewertung von Fußgängererkennungssystemen entwickelt, die eine wichtige Rolle für die Verkehrssicherheit und fortschrittliche Fahrerassistenzsysteme (ADAS) spielen.

Wie Computer Vision bei der nächtlichen Verkehrsvideoerkennung hilft

Nachdem wir nun ein besseres Verständnis der Herausforderungen und der Notwendigkeit von Datensätzen haben, wollen wir uns genauer ansehen, wie visionsbasierte Systeme nächtliche Verkehrsvideos interpretieren können. 

Modelle wie YOLO11 und YOLO26 unterstützen Computer-Vision-Aufgaben wie Objekterkennung, -verfolgung und Instanzsegmentierung, die es ermöglichen, den Verkehr auch bei schlechten Lichtverhältnissen zu analysieren. Hier ist ein Überblick über die Vision-AI-Aufgaben, die diese Modelle zur Analyse des nächtlichen Verkehrs unterstützen:

  • Objekterkennung: Diese Aufgabe kann verwendet werden, um Fahrzeuge, Fußgänger, Fahrräder und andere Verkehrsteilnehmer in jedem Frame zu identifizieren und zu lokalisieren, üblicherweise durch das Zeichnen von Begrenzungsrahmen um diese.
  • Objektverfolgung: Sie hilft, erkannte Objekte über Frames hinweg zu verfolgen, wodurch dasselbe Fahrzeug oder derselbe Fußgänger im Laufe der Zeit erkannt werden kann, was es ermöglicht, die Fahrzeuggeschwindigkeit zu schätzen und den Verkehrsfluss zu überwachen.
  • Instanzsegmentierung: Es kann einzelne Objekte auch dann unterscheiden, wenn sie sich überlappen, und liefert pixelgenaue Details, die die Genauigkeit unter komplexen Nachtbedingungen verbessern.
  • Bildklassifizierung: Diese Aufgabe weist ein ganzes Bild oder ein erkanntes Objekt einer vordefinierten Kategorie zu, z. B. Auto, Bus, LKW oder Motorrad. 
  • Erkennung von ausgerichteten Begrenzungsrahmen (OBB): Erfasst den genauen Winkel und die Ausrichtung eines Objekts und verbessert so die Genauigkeit, wenn Fahrzeuge nachts diagonal oder in ungewöhnlichen Positionen im Verkehr erscheinen.

Verwendung von Ultralytics YOLO-Modellen für die Nachtüberwachung

Wir haben das Modelltraining, die Notwendigkeit von Datensätzen und die Aufgaben besprochen, die Modelle wie YOLO11 und YOLO26 unterstützen. Aber um alles zusammenzufügen, gibt es noch ein weiteres Konzept, das wir durchgehen müssen: wie diese Modelle tatsächlich auf die nächtliche Überwachung angewendet werden. 

Ultralytics YOLO-Modelle sind standardmäßig als vortrainierte Versionen verfügbar, d. h. sie wurden bereits mit großen, universellen Datensätzen wie dem COCO-Datensatz trainiert, der viele Alltagsgegenstände abdeckt. Dies verleiht dem Modell eine solide Ausgangsbasis für die Erkennung und Klassifizierung von Objekten.

Da diese Datensätze jedoch nur sehr wenige Beispiele für schlechte Lichtverhältnisse oder Nachtaufnahmen enthalten, sind die vortrainierten Modelle nicht gut darin, Blendung, Schatten oder schlechten Kontrast effektiv zu verarbeiten. Um sie für die nächtliche Verkehrsvideoerkennung wirkungsvoll zu machen, müssen sie mit spezialisierten Datensätzen, die reale Nachtbedingungen widerspiegeln, feinabgestimmt werden. 

Feinabstimmung oder benutzerdefiniertes Training umfasst das Trainieren des Modells mit zusätzlichen beschrifteten Bildern, die bei schlechten Lichtverhältnissen aufgenommen wurden, z. B. Fahrzeuge unter Scheinwerferblendung, Fußgänger auf Zebrastreifen oder überfüllte Kreuzungen bei Nacht, sodass es die einzigartigen Merkmale von Nachtszenen erlernt.

Nach dem benutzerdefinierten Training kann das Modell Aufgaben wie Erkennung, Verfolgung, Segmentierung oder Klassifizierung mit einer viel höheren Genauigkeit bei schlechten Lichtverhältnissen unterstützen. Dies ermöglicht es den Verkehrsbehörden, solche Modelle für praktische Anwendungsfälle wie Fahrzeugzählung, Geschwindigkeitsschätzung, adaptive Signalsteuerung und Unfallverhütung bei Nacht einzusetzen.

Vision-KI-Anwendungen für die nächtliche Verkehrsvideoerkennung

Betrachten wir als Nächstes, wie Computer Vision in realen nächtlichen Verkehrssystemen eingesetzt werden kann.

Intelligente Verkehrssignale können die intelligente Stadtplanung unterstützen

Städtische Kreuzungen gehören zu den am schwierigsten zu verwaltenden Bereichen, insbesondere nachts, wenn die Sichtbarkeit sinkt und der Verkehrsfluss unvorhersehbarer wird. Traditionelle Signale basieren auf festen Timern, die nicht auf Echtzeitänderungen reagieren können. Untersuchungen zeigen, dass dies nicht nur Zeit für die Fahrer verschwendet, sondern auch zu unnötigem Kraftstoffverbrauch und Verzögerungen führt.

Genau hier können Computer Vision-Systeme helfen, diese Herausforderung zu meistern. Diese Systeme können Fahrzeugbewegungen überwachen und die Anzahl der Fahrzeuge in Echtzeit erkennen. Die Daten werden dann in adaptive Verkehrsleitsysteme eingespeist. Dadurch können sich die Signale schnell an die tatsächlichen Straßenverhältnisse anpassen. Wenn also eine Fahrspur überlastet ist, während eine andere leer ist, kann die Ampelsteuerung sofort angepasst werden, um Engpässe zu beseitigen.

Unfallverhütung

Das Fahren bei Nacht ist risikoreicher als am Tag, da die eingeschränkte Sicht, ungleichmäßige Beleuchtung und Blendung es dem Fahrer erschweren, Entfernungen einzuschätzen. Studien zeigen, dass die Zahl der tödlichen Unfälle pro Kilometer bei Nacht bis zu dreimal höher ist als bei Tageslicht.

Konventionelle Überwachungsmethoden wie fest installierte Überwachungskameras, Straßenpatrouillen, Fahrzeugpräsenzsensoren und festzeitgesteuerte Signalanlagen arbeiten reaktiv und können gefährliche Situationen nicht frühzeitig genug erkennen, um deren Entstehung zu verhindern. 

Computer-Vision-Lösungen können dieses Problem bewältigen, indem sie Live-Video-Streams analysieren und ungewöhnliche Muster auf der Straße oder Autobahn erkennen. Mithilfe der Objektverfolgung können diese Systeme das Verhalten von Fahrzeugen in Echtzeit überwachen und Warnmeldungen ausgeben, wenn etwas anormal erscheint.

Wenn beispielsweise ein fahrendes Fahrzeug die Spur wechselt, in einem verkehrsreichen Gebiet zu schnell fährt oder plötzlich langsamer wird, kann das System dies in Echtzeit melden. Das bedeutet, dass die Behörden schnell reagieren und Unfälle verhindern können, bevor sie passieren.

Autonomes Fahren und ADAS

Für autonome Fahrzeuge und ADAS bringt das Fahren bei Nacht eigene Herausforderungen mit sich. Geringe Sicht und unvorhersehbare Verkehrsmuster erschweren es herkömmlichen Sensoren, zuverlässig zu arbeiten, was Sicherheitsbedenken aufwirft. 

Computer Vision verbessert diese Systeme durch die Übernahme von Aufgaben wie Objekterkennung, Spurverfolgung und Segmentierung, wodurch Fahrzeuge Fußgänger, andere Autos und Hindernisse auch bei schlechten Lichtverhältnissen erkennen können. In Kombination mit Radar oder LiDAR (Light Detection and Ranging), die die Umgebung in 3D kartieren, hilft die zusätzliche visuelle Ebene ADAS, frühzeitig Warnungen auszugeben, und gibt autonomen Fahrzeugen das Bewusstsein, das sie benötigen, um nachts sicherer zu navigieren.

Abb. 4. Fahrzeugaufnahmen, die sowohl bei Tag als auch bei Nacht aufgenommen wurden (Quelle)

Strafverfolgung und Erkennung von Verstößen

Geschwindigkeitsüberschreitung ist weltweit für jeden dritten Verkehrstoten verantwortlich, und das Risiko wird nachts noch größer. Dunkelheit erschwert es der Verkehrspolizei, Verstöße zu ahnden, da Details, die bei Tageslicht klar sind, nach Einbruch der Dunkelheit oft verschwimmen. 

Deshalb bleiben Verstöße wie Geschwindigkeitsüberschreitungen auf leeren Straßen, das Überfahren roter Ampeln oder das Abdriften in die falsche Fahrspur oft ungestraft. Computer Vision begegnet diesem Problem, indem es Infrarotkameras verwendet, um Verstöße auch bei schlechten Lichtverhältnissen zu erkennen. Diese Systeme erstellen Erkennungszonen, in denen Vorfälle aufgezeichnet werden, wodurch Fehlalarme reduziert und klare, überprüfbare Beweise geliefert werden. Für die Verkehrsbehörden bedeutet dies weniger blinde Flecken und weniger Abhängigkeit von manuellen Kontrollen.

Vor- und Nachteile der Verkehrsvideoerkennung bei Nacht

Hier sind einige Vorteile der Verwendung von Vision AI für die nächtliche Verkehrsvideoerkennung.

  • Skalierbarkeit: Nach der Feinabstimmung können Modelle über viele Kameras oder Kreuzungen hinweg eingesetzt werden und so eine stadtweite Überwachung unterstützen.
  • Prädiktive Analytik: Historische Videodaten können verwendet werden, um Staus und unfallgefährdete Zonen vorherzusagen und präventive Maßnahmen zu unterstützen.
  • Ressourcenoptimierung: Sie bietet den Behörden Echtzeit-Einblicke, die helfen, Straßenpatrouillen und Rettungsdienste effizienter einzusetzen.

Trotz ihrer Vorteile ist die nächtliche Verkehrserkennung mit Vision AI auch mit gewissen Einschränkungen verbunden. Hier sind einige Faktoren, die Sie beachten sollten:

  • Datenabhängigkeit: Die Genauigkeit von Vision-AI-Systemen hängt stark vom Zugriff auf große, hochwertige Datensätze ab, die ein breites Spektrum an Nachtbedingungen erfassen.
  • Umweltbedingte Herausforderungen: Wetterfaktoren wie Regen, Nebel oder Dunst sowie praktische Probleme wie verschmutzte oder falsch ausgerichtete Kameraobjektive können die Erkennungsleistung beeinträchtigen und eine regelmäßige Wartung erfordern.
  • Hardwareanforderungen: Das Ausführen fortschrittlicher KI-Modelle erfordert oft leistungsstarke GPUs oder spezialisierte Edge-Geräte, was den großflächigen Einsatz kostspielig und komplex machen kann. 

Die Zukunft intelligenter Verkehrssysteme bei Nacht

Da Städte wachsen und Straßen belebter werden, entwickelt sich die Verkehrserkennung bei Nacht hin zu intelligenteren und reaktionsschnelleren Systemen. Beispielsweise können Wärmebildkameras und Infrarotsensoren Wärmesignaturen von Personen und Fahrzeugen erkennen, sodass man auch in völliger Dunkelheit sehen kann. Dies reduziert Fehler, die auftreten, wenn Standardkameras mit Blendung oder schlechten Lichtverhältnissen zu kämpfen haben.

Abb. 5. Nachtsichttechnologie verbessert die Fußgängererkennung bei Nacht (Quelle)

Ein weiterer wachsender Ansatz ist die Kamera-LiDAR-Fusion. Kameras liefern detaillierte Bilder der Straße, während LiDAR eine präzise 3D-Karte erstellt. Zusammen verbessern sie die Genauigkeit der Erkennung von Fahrspuren, Fahrzeugen und Hindernissen, insbesondere bei schwachem Licht oder mäßigem Nebel.

Gleichzeitig erweitern Fortschritte in der Bildverbesserung bei schlechten Lichtverhältnissen, der Fußgängererkennung und der Kennzeichenidentifizierung die Fähigkeiten von Computer Vision. Mit diesen Verbesserungen können selbst schlecht beleuchtete Straßen und Kreuzungen zuverlässiger und mit weniger Fehlern überwacht werden.

Wesentliche Erkenntnisse

Das Erkennen von Fahrzeugen bei Nacht war schon immer eine Herausforderung für die Verkehrsüberwachung, aber Computer Vision macht es einfacher. Indem es die Auswirkungen von Blendung reduziert und komplexe Verkehrsszenen bewältigt, bietet es ein genaueres Bild davon, wie sich Straßen nach Einbruch der Dunkelheit verhalten. Da diese Systeme immer weiter fortschreiten, ebnen sie den Weg für einen sichereren, intelligenteren und effizienteren Transport bei Nacht.

Sind Sie bereit, Vision AI in Ihre Projekte zu integrieren? Treten Sie unserer aktiven Community bei und entdecken Sie Innovationen wie KI in der Automobilindustrie und Vision AI in der Robotik. Besuchen Sie unser GitHub-Repository, um mehr zu erfahren. Um noch heute mit Computer Vision zu beginnen, informieren Sie sich über unsere Lizenzoptionen.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten