深圳Yolo 视觉
深圳
立即加入

利用Ultralytics YOLO 模型增强车辆再识别能力

Abirami Vina

6 分钟阅读

2025 年 11 月 28 日

了解Ultralytics YOLO 模型如何通过提供精确和准确的检测,在车辆再识别解决方案中发挥作用。

观看一级方程式赛车比赛时,很容易发现自己喜爱的车队的赛车。法拉利的鲜红色或梅赛德斯的银色在一圈又一圈的比赛中脱颖而出。 

如果不是在干净整洁的赛道上,而是在车水马龙的拥挤城市道路上,要让机器做同样的事情则更具挑战性。这就是为什么车辆再识别(vehicle re-ID)最近在人工智能领域越来越受关注的原因。 

车辆再识别技术使机器能够在多视角或非重叠摄像机中识别同一车辆。它还能在临时遮挡(车辆被部分隐藏)或光照和视角发生变化后识别车辆。 

计算机视觉是支持车辆重新识别的一项核心技术。计算机视觉是人工智能的一个子领域,主要是教机器理解和解释图像和视频等视觉信息。利用这项技术,人工智能系统可以分析车辆特征,并通过大型摄像头网络对其进行可靠track ,从而实现城市监控和交通监测等应用。

尤其是视觉人工智能模型,如 Ultralytics YOLO11和即将推出的Ultralytics YOLO26等视觉人工智能模型支持物体检测和跟踪等任务。它们可以在每一帧画面中快速定位车辆,并跟踪它们在场景中的移动。当这些模型与车辆再识别网络相结合时,即使视图或照明条件发生变化,组合系统也能在不同的摄像机画面中识别出相同的车辆。

图 1.使用YOLO11 进行车辆跟踪和速度估算的示例(资料来源)

在本文中,我们将介绍车辆重新识别的工作原理、使其成为可能的技术以及在智能交通系统中的应用。让我们开始吧!

什么是车辆重新识别?

车辆再识别是计算机视觉中的一项重要应用。它的重点是识别同一车辆在不同的非重叠摄像机中出现时的特征,使其在城市中移动时保持一致。这项工作极具挑战性,因为每个摄像头可能从不同的角度、在不同的光线下或在部分遮挡的情况下捕捉到车辆。

假设一辆蓝色轿车通过十字路口,随后出现在另一条街道上,由另一台摄像机拍摄。角度、光线和背景都发生了变化,其他车辆可能会短暂遮挡视线。尽管如此,车辆再识别系统仍然需要确定这是同一辆车。

深度学习的最新进展,尤其是卷积神经网络(CNN)和transformer模型,使这一过程的准确性大大提高。这些模型可以提取有意义的视觉模式,区分外观相似的车辆,同时还能识别正确的车辆。 

在智能交通系统中,这种功能支持持续监控、路线重建和全市交通分析,使智能城市系统更清晰地了解车辆如何行驶。它们有助于提高安全性和效率。

了解车辆重新识别的工作原理 

通常情况下,使用车辆再识别技术分析来自十字路口、停车场和高速公路的视频片段,以确定同一车辆是否出现在不同的摄像头中。这一概念类似于人员再识别,即系统通过多个视角track 个人,但这里的重点是分析车辆的特定特征,而不是人的外观。 

这一过程涉及几个关键步骤,每个步骤都旨在帮助系统detect 车辆、提取其视觉特征,并在不同视角下进行可靠匹配。

在高层次上,该系统首先检测每个帧中的车辆,然后提取颜色、形状和纹理等特征,为每辆车创建一个独特的数字表示或嵌入。这些嵌入信息会在不同时间和不同摄像机之间进行比较,通常还辅以物体跟踪和时空检查,以确定两个视点是否属于同一辆车。

图 2.车辆重新识别的工作原理。(资料来源)

下面我们就来详细了解一下这个过程:

  • 对象检测:系统首先要在每个视频帧中识别和定位车辆,以便准确知道要处理的区域。这一步骤通常由物体检测模型来处理。

  • 特征提取:检测后,专用的再识别或特征提取网络会分析每辆车的作物,并生成特征图或特征表示,以捕捉视觉细节,如颜色、形状、纹理和独特部分。

  • 嵌入生成:将提取的这些特征转化为数字表示,称为特征嵌入。这种嵌入就像数字指纹一样,可以捕捉车辆从不同角度看时的特征。在匹配之前,通常会对这些嵌入进行归一化处理,以避免光照、对比度或相机设置造成的差异干扰身份对比。归一化可确保系统专注于有意义的、与身份相关的特征,而不是噪音。

  • 物体跟踪:在单个摄像头视图内,跟踪算法可将各帧检测数据连接起来,在车辆穿过场景时帮助保持一致的身份。

  • 跨摄像头匹配:为匹配不同摄像头下的同一车辆,系统会将嵌入信息(由 Re-ID 网络生成)与时间和位置信息进行比较。即使摄像头没有重叠,这一步骤也能确定两个图像是否属于同一辆车。

Ultralytics YOLO 模型如何支持车辆重新识别

Ultralytics YOLO 模型在车辆再识别管道中发挥着重要的辅助作用。虽然 YOLO 模型本身不具备重新识别功能,但它们能提供其他基本功能,如快速检测和稳定跟踪,而重新识别网络需要依靠这些功能才能实现准确的跨摄像头匹配。 

接下来,让我们进一步了解Ultralytics YOLO 模型(如YOLO11 )如何增强车辆再识别系统。

精确的车辆检测模块:重新识别系统的第一部分

任何车辆再识别系统的基础都是准确的目标检测。Ultralytics YOLO 模型(如YOLO11 )在这方面是一个不错的选择,因为它们可以在每一帧中快速detect 车辆,即使在部分遮挡、交通繁忙或光照条件不断变化的繁忙场景中也是如此。 

它们还可以进行自定义训练,这意味着您可以在自己的数据集上对模型进行微调,使其学会识别特定的车辆类型,如出租车、送货车或车队车辆。当解决方案需要更专业的检测时,这一点尤其有用。Ultralytics YOLO 模型通过提供简洁、精确的边界框,为 Re-ID 网络提供了高质量的输入,从而使摄像头之间的匹配更加可靠。

支持可靠的单摄像头跟踪

一旦检测到车辆,YOLO11 等模型还能在单个摄像头视图内支持稳定的目标跟踪。物体跟踪是在连续帧中跟踪检测到的车辆,并在其移动过程中为其分配一个一致的 ID 的过程。

借助Ultralytics Python 软件包对 ByteTrack 和 BoT-SORT 等跟踪算法的内置支持,YOLO11 可以在车辆通过场景时保持一致的 ID。这种稳定的跟踪减少了 Re-ID 系统接管之前的身份切换,最终提高了跨摄像头匹配的准确性。

可选的跟踪器级 Re-ID,提高身份稳定性

除了标准的基于运动的跟踪功能外,Ultralytics Python 软件包还在其 BoT-SORT 跟踪器中加入了可选的基于外观的Re-ID 功能。这意味着跟踪器可以使用视觉外观特征,而不仅仅是运动模式或边界框重叠,来确定两个检测结果是否属于同一辆车。 

启用后,BoT-SORT 会从检测器或YOLO11 分类模型中提取轻量级外观嵌入,并用于验证帧间的身份。这种额外的外观线索有助于跟踪器在具有挑战性的情况下保持更稳定的 ID,例如短暂遮挡、车辆近距离通过或摄像机运动造成的微小偏移。 

虽然这种内置的重新识别功能并不是要取代完整的跨摄像头车辆重新识别功能,但它确实提高了单个摄像头视图内的身份一致性,并生成了下游重新识别模块可以依赖的更简洁的小轨迹。要使用这些基于外观的追踪功能,只需在 BoT-SORT 追踪器配置文件中将 "with_reid "设置为 "True",并选择提供外观功能的模型,即可启用 Re-ID。

更多详情,请查看Ultralytics 关于对象跟踪的文档页面,其中介绍了可用的 Re-ID 选项和配置方法。

为再识别网络提供高质量的投入

除了提高追踪过程中的身份稳定性,YOLO 模型还在为 Re-ID 网络本身准备干净的视觉输入方面发挥着重要作用。

检测到车辆后,通常会对其边界框进行裁剪,然后发送到重新识别网络,该网络会提取匹配所需的视觉特征。由于再识别模型在很大程度上依赖于这些裁剪图像,因此模糊、错位或不完整的裁剪等不良输入会导致嵌入较弱,跨相机匹配的可靠性较低。

Ultralytics YOLO 模型可持续生成干净、对齐的边界框,全面捕捉感兴趣的车辆,从而帮助减少这些问题。有了更清晰、更准确的作物,Re-ID 网络就能专注于有意义的细节,如颜色、形状、纹理和其他识别特征。高质量的输入可使整个摄像头视图的再识别性能更加可靠和准确。

与 Re-ID 模型结合使用时,可实现跨摄像头匹配

尽管Ultralytics YOLO 模型本身并不执行重新识别,但它们提供了重新识别网络所需的关键信息,以比较不同摄像机视图中的车辆。YOLO11 等模型可以在每个摄像头内定位和跟踪车辆,而 Re-ID 模型则可以确定来自不同位置的两辆车是否属于同一身份。

当这些组件(用于检测和跟踪的YOLO 和用于特征提取的专用嵌入模型)协同工作时,就形成了一个完整的多摄像头车辆匹配管道。这样,当同一车辆在更大的摄像头网络中移动时,就有可能将其关联起来。

例如,在最近的一项研究中,研究人员使用轻量级YOLO11 模型作为在线多摄像头跟踪系统中的车辆检测器。研究发现,使用YOLO11 有助于缩短检测时间,同时又不影响准确性,从而提高了下游跟踪和跨摄像头匹配的整体性能。

图 3.YOLO11多摄像头多车辆跟踪和重新识别。(资料来源)

基于深度学习的车辆再识别架构

现在,我们已经对Ultralytics YOLO 模型如何支持车辆再识别有了更好的了解,让我们仔细看看处理特征提取和匹配步骤的深度学习模型。这些模型负责学习车辆的外观、创建稳健的嵌入以及区分不同摄像头视图中视觉相似的车辆。 

下面举例说明物体再识别系统中使用的核心深度学习组件:

  • 特征提取 使用 CNN: 卷积神经网络(如 ResNet50 或 ResNet101)通过模式识别学习深度特征,识别颜色、形状和纹理等元素,从而将一辆车与另一辆车区分开来。然后,这些学习到的模式会被转换为嵌入,作为车辆的独特数字表示。
  • 注意机制 和转换器:包括空间注意力在内的注意力网络和层可以帮助突出车辆的重要区域,如车灯、车窗或车牌区域。空间注意力可使模型关注信息量最大的视觉线索所在位置,而transformer模型,如视觉变换器(ViT),则可捕捉整个图像中的全局关系。当车辆看起来非常相似时,它们共同提高了细粒度的准确性。
  • 基于部件和多分支网络: 有些 Re-ID 模型会单独分析特定的车辆区域,如车顶、尾灯或侧板,然后将结果合并。这意味着,即使车辆被部分遮挡或从困难的角度观察,系统也能保持稳健。

除了这些架构组件外,度量学习在训练车辆再识别模型中也发挥了关键作用。损失函数(如三重损失、对比损失和交叉熵损失)通过将相同车辆的图像拉到一起,同时将不同车辆的图像推开,帮助系统学习强大的、具有区分性的嵌入。

常用车辆再识别数据集和基准

在计算机视觉研究中,数据集的质量对模型部署后的性能有重大影响。数据集提供了模型学习的标注图像或视频。 

为了重新识别车辆,这些最先进的数据集必须捕捉各种条件,如光线、视角变化和天气变化。这种多样性有助于模型处理真实世界交通环境的复杂性。

以下是支持车辆再识别模式的训练、优化和评估的常用数据集: 

  • VeRi-776 数据集: 该数据集收集了 20 个城市摄像头拍摄的 50,000 多张带注释的车辆图像。注释包括车辆 ID、颜色、型号和车牌区域,可实现详细的特征学习。
  • VehicleID 数据集: 这个大型数据集包含 20 多万张图像,代表 26,000 多辆汽车。通常选择它来研究可扩展性,并对不同方法进行基线比较。
  • VeRi-Wild 数据集: 该数据集旨在反映真实世界的可变性,包括视角、天气和部分遮挡的差异。它通常用于评估模型的鲁棒性和泛化。
图 4:VeRi-776 数据集中的车辆示例VeRi-776 数据集中的车辆示例。(资料来源) 

这些数据集上的模型性能通常使用平均精度mAP)、Rank-1 或 Rank-5 准确度等指标进行评估。mAP 衡量模型检索特定车辆的所有相关匹配结果的准确程度,而 Rank-1 和 Rank-5 分数则表示正确的匹配结果是出现在结果列表的顶部,还是出现在前几个预测结果中。 

这些基准共同为研究人员提供了比较不同方法的一致方法,在指导开发更准确、更可靠的车辆再识别系统供实际使用方面发挥了重要作用。

车辆重新识别的应用

在介绍了基本原理之后,让我们来看看一些真实的使用案例,在这些案例中,车辆重新识别为实际的运输、移动和监控工作流程提供了支持。

城市交通监控

繁忙的城市道路上不断穿梭着各种车辆,而交通摄像头往往难以track 在不同区域之间移动的同一辆车。光线的变化、拥挤的场景以及外观几乎完全相同的车辆,都可能导致在不同摄像头之间丢失身份。 

车辆再识别技术通过清晰地检测车辆、提取显著特征以及即使在低分辨率或繁忙的录像中也能保持一致的 ID 来解决这一问题。其结果是在整个网络中进行更流畅、连续的跟踪,让交通团队更清晰地了解车辆如何在城市中行驶,并能更快、更明智地应对拥堵和事故。

智能停车系统

智能停车设施依靠一致的车辆识别来管理出入、访问控制和空间分配。然而,在这些环境中,摄像机经常会从不同寻常的角度和在困难的照明条件下拍摄车辆,例如在地下车库、阴暗区域或黄昏时分的室外停车场。 

这些情况使得确认同一车辆是否在不同区域出现变得更加困难。当身份不一致时,停车记录可能会被破坏,门禁控制的可靠性也会降低,驾驶员可能会遇到延误。因此,许多智能停车系统都采用了车辆重新识别模式,以便在每辆车通过设施时都能保持稳定的身份。

图 5.车辆重新识别示例,左侧为选定的车辆图像,右侧为匹配的搜索结果。(资料来源)

执法和法医

在交通监控的基础上,车辆重新识别在执法和法医调查中也发挥着重要作用。在许多情况下,执法人员需要通过多个摄像头跟踪一辆车,但车牌可能无法读取、丢失或被故意遮挡。 

拥挤的场景、低能见度和部分遮挡会使不同的车辆看起来非常相似,从而使人工识别变得缓慢而不可靠。车辆再识别技术可以通过分析车辆的视觉特征,而不是仅仅依靠车牌,在不重叠的摄像头网络中追踪车辆的运动轨迹。

这意味着调查人员可以更轻松地跟踪车辆的行踪,了解车辆何时出现在不同地点,并确认车辆在事件发生前后的行驶路线。人工智能驱动的车辆再识别技术还支持追踪嫌疑车辆、查看事件录像或确定车辆在事件发生前后的行驶方向等任务。

图 6.不同摄像头下的车辆匹配情况,视角各异。(资料来源)

车队和物流跟踪

车队和物流运营通常依靠 GPS、RFID 标签和人工日志来track 车辆的行驶情况,但这些工具在安防摄像头或堆场摄像头覆盖的区域(如装卸区、仓库堆场和内部道路网络)存在漏洞。 

车辆经常在不重叠的摄像头之间移动,消失在建筑物后面,或者看起来与车队中的其他车辆几乎一模一样,因此很难确认是否在不同地点看到过同一辆车。车辆再识别系统可以通过分析视觉细节和时间信息,在每辆车通过设施时保持一致的身份,从而帮助弥补这些漏洞。 

这样,车队经理就能更全面地了解枢纽内的活动情况,支持诸如验证交付路径、识别异常移动以及确保车辆按照预期路线行驶等任务。

车辆重新标识任务的利弊

以下是使用人工智能进行车辆重新识别的一些主要优势:

  • 减少人工工作量: 车辆重新识别(Vehicle re-ID)将原本需要大量人工审查的身份匹配任务自动化,大大减少了分析视频片段所需的时间和精力。
  • 自动化和实时洞察: 通过将检测、跟踪和特征匹配相结合,车辆再识别支持持续的自动监控,并可提供实时警报,以加快事件响应速度。
  • 可扩展性和适应性: 通过强大的特征学习、多尺度特征提取和在视觉变化下保持稳定的不变表示法,再识别模型可以适应新的环境、照明条件或摄像机角度。这些功能使它们既适用于大型城市网络,也适用于小型部署。

虽然车辆再识别技术有很多优点,但也有一些局限性需要考虑。以下是在实际环境中影响其可靠性的几个因素:

  • 计算需求高:特征提取、嵌入生成和跨摄像机匹配需要大量处理能力,尤其是在监控大型摄像机网络时。
  • 环境变化:
  • 数据集和领域限制: 在有限的或理想化的数据集上训练出来的模型,如果没有进一步的微调或领域适应,可能无法很好地推广到现实世界的条件中。

车辆重新识别方法的未来之路

随着技术的发展,车辆再识别技术也在不断进步。最近在 IEEE、CVPR 和 arXiv 上发表的文章,以及在国际会议上的演讲,都突出表明了一个明显的趋势,即向结合多种数据源和更先进的特征推理的更丰富的模型转变。该领域未来的工作重点可能是构建更强大、更高效、更能大规模处理现实世界变异性的系统。

例如,一个很有前景的方向是使用transformer模型和图聚合网络。变换器可以分析整幅图像,了解所有视觉细节是如何组合在一起的,这有助于系统识别同一辆车,即使角度或光线发生了变化。 

基于图形的模型则更进一步,将不同的车辆部件或摄像头视图视为网络中的连接点。这样,系统就能理解这些关键点之间的相关性,并对车辆身份和识别特征做出更好的判断。

另一个关键的进步是多模态数据融合和特征融合。较新的系统不再仅仅依赖图像,而是将视觉信息与其他多媒体信号(如 GPS 数据或传感器的运动模式)相结合。当车辆被部分遮挡、光线不佳或摄像头角度突然改变时,这种额外的背景使系统更容易保持准确性。 

主要要点

车辆再识别正在成为智能交通系统中的一种关键方法,它可以帮助城市在不同的摄像头下更可靠地track 车辆。得益于深度学习的进步,以及使用更丰富、更多样的数据集进行更好的验证,这些系统在现实条件下变得更加准确和实用。 

随着技术的发展,必须在创新与隐私、安全和道德方面的负责任做法之间取得平衡。总之,这些进步正在为更智能、更安全、更高效的交通网络铺平道路。

访问我们的GitHub 存储库并加入我们的社区,探索有关人工智能的更多信息。查看我们的解决方案页面,了解机器人中的人工智能 制造业中的计算机视觉。了解我们的许可选项,立即开始使用 Vision A!

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始