深圳Yolo 视觉
深圳
立即加入
词汇表

检测头

了解检测头如何实现实时目标检测。探索它在 Ultralytics YOLO26 中以高精度预测边界框和标签的作用。

一个检测头作为目标检测神经网络架构中的最终决策层。虽然模型的早期层负责理解图像中的形状、纹理和特征,但检测头是解释这些信息以精确预测存在哪些对象及其位置的特定组件。它将特征提取器产生的抽象、高级数据转换为可操作的结果,通常输出一组包含已识别对象的边界框,以及它们对应的类别标签和置信度分数

区分头部与脊柱及颈部

为了充分理解检测头的功能,将现代检测器可视化为由三个主要阶段组成会很有帮助,每个阶段在 计算机视觉 (CV) 管线中都有其独特的作用:

  • 骨干网络:这是网络的初始部分,通常是像 ResNet 或 CSPNet 这样的 卷积神经网络(CNN)。它处理原始输入图像以创建表示视觉模式的 特征图
  • 颈部:位于主干网络和头部之间,颈部负责提炼和结合来自不同尺度的特征。特征金字塔网络 (FPN)等架构通过聚合上下文,确保模型能够检测不同尺寸的物体。
  • 检测头:消耗来自颈部的精炼特征的最终组件。它执行实际的分类(这是什么?)和回归(它在哪里?)任务。

进化:锚点式与无锚点式

检测头的设计已显著发展,以提高速度和准确性,特别是从传统方法向现代 实时推理 模型的转变。

  • 锚点式检测器:传统 单阶段目标检测器依赖 预定义锚框——即多种尺寸的固定参考形状。检测器会预测如何拉伸或移动这些锚点以适配目标。该方法在Faster R-CNN的基础研究中 有详细阐述。
  • 无锚框检测头:包括最新的YOLO26在内的最先进模型,都采用了无锚框检测器。这些检测头直接从特征图中的像素预测目标中心和尺寸,从而消除了手动调整锚框的需要。这简化了架构,并增强了模型对新颖目标形状的泛化能力,这种技术通常与全卷积单阶段目标检测(FCOS)相关联。

实际应用

检测头的精度对于在安全关键型和工业环境中部署 人工智能 (AI) 至关重要。用户可以使用 Ultralytics 平台 轻松标注数据并训练这些专用检测头。

  • 自动驾驶: 汽车人工智能领域,检测头负责 实时区分行人、交通信号灯及其他车辆。高度 优化的检测头确保 推理延迟保持在足够低的水平,使 车辆能够即时响应。
  • 医学诊断: 在医学影像分析中,检测头经过精细调校,用于定位磁共振成像扫描中的肿瘤等异常病灶。回归分支必须具备极高精度,以勾勒病变的精确边界,从而协助医生制定医疗方案

代码示例

以下示例演示了如何加载 YOLO26 模型并检查其检测头的输出。当推理运行时,检测头会处理图像并返回最终结果 boxes 包含坐标和类别ID。

from ultralytics import YOLO

# Load the YOLO26n model (nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image to utilize the detection head
results = model("https://ultralytics.com/images/bus.jpg")

# The detection head outputs are stored in results[0].boxes
for box in results[0].boxes:
    # Print the bounding box coordinates and the predicted class
    print(f"Class: {int(box.cls)}, Coordinates: {box.xywh.numpy()}")

这种交互突出了检测头如何将复杂的神经网络激活转化为可读数据,供开发者用于目标track或计数等下游任务。

让我们一起共建AI的未来!

开启您的机器学习未来之旅