从低能见度到眩光,了解是什么让夜间交通视频检测的准确性面临挑战,以及计算机视觉如何提高安全性和流畅性。

从低能见度到眩光,了解是什么让夜间交通视频检测的准确性面临挑战,以及计算机视觉如何提高安全性和流畅性。
道路在黑暗中看起来不同,不仅对驾驶员而言,对负责保障他们安全的系统也是如此。低能见度、前灯眩光和快速移动的反射光会使夜间车辆检测更具挑战性。
传统方法,如人工观察或基于运动的摄像头,主要依赖于人的判断和简单的运动线索。这在弱光或复杂的交通状况下可能不太可靠。这些方法可能会错误识别车辆或行人,导致虚假检测或遗漏观察结果。
人工智能 (AI)、深度学习和计算机视觉可以通过自动化车辆检测和识别来弥合差距。特别是,计算机视觉是人工智能的一个分支,它使机器能够看到和解释视觉数据。在夜间交通视频检测方面,视觉 AI 模型可以超越亮度或运动,学习识别复杂的模式,从而提高准确性。
例如,Ultralytics YOLOv8和Ultralytics YOLOv5等计算机视觉模型以其速度和精度而闻名。它们可以实时处理视频和图像数据,检测和分类帧内的多个对象,并在序列中跟踪它们。
这些功能通过各种视觉任务实现,例如目标检测和实例分割,即使在前灯、阴影或重叠车辆使检测变得困难时也是如此。它们使模型能够识别、分类和区分对象。
在本文中,我们将探讨夜间交通监控的挑战,了解计算机视觉如何应对这些挑战,以及视觉 AI 在现实世界交通监控系统中的应用。让我们开始吧!
在探讨计算机视觉如何解决夜间交通检测的挑战之前,让我们看看为什么在天黑后发现车辆如此困难。以下是一些需要考虑的因素:
计算机视觉模型的训练依赖于大量的图像集合,这些图像集合被称为数据集。这些数据集经过精心标注,标明其中包含的物体,例如汽车、卡车、行人、自行车等,是模型训练的基础。通过学习这些标注过的示例,模型能够识别模式,从而在新视频素材中识别和检测物体。
在训练过程中,模型从数据中提取特征,并利用这些特征来提高检测精度。这个过程有助于减少模型在实际交通场景中出现漏检和误报的情况。
然而,构建用于夜间环境的数据集或数据集合则更具挑战性。较差的视频质量使得标注工作耗时且容易出错。此外,在夜间环境中,事故或异常驾驶行为等罕见但重要的事件难以捕捉。这导致模型可供学习的训练样本数量有限。
为了解决这个问题,研究人员开发了专门的基准数据集。基准数据集不仅仅是图像的集合,它还包括标准化的标签、评估协议和性能指标,例如精确率(precision)、召回率(recall)和平均精度均值(mean average precision, mAP)。这些指标使得在相同条件下测试和比较不同的算法成为可能,从而确保公平和一致的评估。
例如,ExDark 基准数据集包含 7,363 张低光照图像,涵盖 12 个物体类别(自行车、船、瓶子、公共汽车、汽车、猫、椅子、杯子、狗、摩托车、人、桌子)。每张图像都用边界框进行标注,该数据集广泛应用于研究中,以评估在弱光照条件下的物体检测和分类性能。
类似地,NightOwls 基准数据集提供约 115,000 张夜间图像,其中包含约 279,000 个人行道标注。它已成为评估行人检测系统的关键资源,这些系统在道路安全和高级驾驶辅助系统(ADAS)中发挥着至关重要的作用。
现在我们对所涉及的挑战以及对数据集的需求有了更好的理解,接下来让我们仔细看看基于视觉的系统如何解释夜间交通视频。
YOLO11 和 YOLO26 等模型支持计算机视觉任务,例如物体检测、跟踪和实例分割,这使得即使在低光照条件下也能分析交通状况。以下是这些模型支持的视觉 AI 任务概述,这些任务可用于分析夜间交通:
我们讨论了模型训练、对数据集的需求以及 YOLO11 和 YOLO26 等模型支持的任务。但要将所有这些结合在一起,还需要了解一个概念:如何将这些模型实际应用于夜间监控。
Ultralytics YOLO 模型可以直接作为预训练版本使用,这意味着它们已经在大型通用数据集(例如COCO 数据集)上进行了训练,该数据集涵盖了许多日常物体。这使模型具有强大的检测和分类物体的基线能力。
但是,由于这些数据集包含的低光照或夜间示例非常少,因此预训练模型在处理眩光、阴影或对比度差方面效果不佳。为了使它们对夜间交通视频检测产生影响,需要在反映真实夜间条件的专门数据集上对它们进行微调。
微调或自定义训练涉及在低光照条件下捕获的额外标记图像上训练模型,例如在车头灯眩光下的车辆、人行横道上的行人或夜间拥挤的十字路口,因此它可以学习夜间场景的独特特征。
经过自定义训练后,该模型可以支持检测、跟踪、分割或分类等任务,并在低光照条件下具有更高的准确性。这使得交通管理部门可以将此类模型应用于实际用例,例如夜间的车辆计数、速度估计、自适应信号控制和事故预防。
接下来,让我们看看如何在实际的夜间交通系统中采用计算机视觉。
城市十字路口是交通管理中最困难的区域之一,尤其是在夜间,能见度降低且交通流量变得难以预测。传统的交通信号灯依赖于固定的计时器,无法对实时变化做出反应。研究表明,这不仅浪费了驾驶员的时间,还会导致不必要的燃料消耗和延误。
这正是计算机视觉系统可以帮助克服的挑战。这些系统可以监控车辆的移动,并实时检测车辆的数量。然后,这些数据被输入到自适应交通控制系统中。这使得信号灯能够根据实际路况快速调整。因此,如果一个车道拥挤而另一个车道空旷,则可以立即调整信号灯的配时以消除瓶颈。
夜间驾驶比白天更危险,因为能见度降低、光照不均匀和眩光使驾驶员更难判断距离。事实上,研究表明,夜间每公里的致命事故率可能比白天高出三倍。
传统的监控方法,如固定监控摄像头、道路巡逻、车辆存在传感器和固定时间信号系统,都是被动运行的,无法及早发现危险情况以防止其发生。
计算机视觉解决方案可以通过分析实时视频流并检测道路或高速公路上的异常模式来解决这个问题。通过使用目标跟踪,这些系统可以实时监控车辆行为,并在出现异常情况时发出警报。
例如,如果一辆行驶中的车辆正在变换车道、在拥堵区域行驶过快或突然减速,系统可以实时标记它。这意味着有关部门可以迅速做出反应,并在事故发生前加以预防。
对于自动驾驶车辆和ADAS,夜间驾驶带来了其自身的挑战。低能见度和不可预测的交通模式使得传统传感器难以可靠地执行任务,从而引发了安全问题。
计算机视觉通过处理诸如目标检测、车道跟踪和分割等任务来增强这些系统,使车辆即使在光线不足的条件下也能识别行人、其他车辆和障碍物。当与雷达或LiDAR(光探测和测距)结合使用时,后者以3D方式绘制周围环境,增加的视觉层有助于ADAS提供早期预警,并使自动驾驶车辆具备在夜间更安全地导航所需的感知能力。
超速是造成全球三分之一的交通事故死亡的原因,而且这种风险在夜间只会变得更糟。黑暗使得交警更难抓到违规行为,因为在白天清晰可见的细节在天黑后往往会变得模糊。
这就是为什么在空旷的道路上超速、闯红灯或漂移到错误的车道等违规行为通常不会受到惩罚。计算机视觉通过使用红外摄像机来发现违规行为,即使在弱光条件下也是如此,从而解决了这个问题。这些系统创建检测区域,在这些区域中记录事件,从而减少误报并提供清晰、可验证的证据。对于交通管理部门来说,这意味着更少的盲点和更少的对手动检查的依赖。
以下是使用视觉AI进行夜间交通视频检测的一些优点。
尽管有其优点,但使用视觉AI进行夜间交通检测也存在一定的局限性。以下是一些需要牢记的因素:
随着城市的发展和道路变得更加繁忙,夜间交通检测正在朝着更加智能和响应迅速的系统发展。例如,热像仪和红外传感器可以检测来自人和车辆的热信号,从而即使在完全黑暗的环境中也能看到。这减少了标准摄像机在眩光或弱光下出现错误的情况。
另一种日益普及的方法是摄像头与激光雷达融合。摄像头提供道路的详细图像,而激光雷达生成精确的 3D 地图。结合使用时,它们可以提高检测车道、车辆和障碍物的准确性,尤其是在弱光或中度雾天条件下。
与此同时,低光图像增强、行人识别和车牌识别技术的进步正在扩展计算机视觉的能力。 随着这些改进,即使是光线不足的道路和十字路口也可以得到更可靠、更少错误的监控。
夜间车辆检测一直是交通监控的挑战,但计算机视觉正使其变得更容易管理。 通过减少眩光的影响和处理复杂的交通场景,它可以更准确地了解道路在天黑后的状况。 随着这些系统的不断进步,它们正在为夜间更安全、更智能、更高效的交通运输铺平道路。
准备好将视觉 AI 集成到您的项目中了吗? 加入我们活跃的社区,探索诸如汽车行业中的 AI和机器人技术中的视觉 AI等创新。 访问我们的 GitHub 存储库以了解更多信息。 要立即开始使用计算机视觉,请查看我们的许可选项。