了解检测头如何实现实时目标检测。探索它在 Ultralytics YOLO26 中以高精度预测边界框和标签的作用。
一个检测头作为目标检测神经网络架构中的最终决策层。虽然模型的早期层负责理解图像中的形状、纹理和特征,但检测头是解释这些信息以精确预测存在哪些对象及其位置的特定组件。它将特征提取器产生的抽象、高级数据转换为可操作的结果,通常输出一组包含已识别对象的边界框,以及它们对应的类别标签和置信度分数。
为了充分理解检测头的功能,将现代检测器可视化为由三个主要阶段组成会很有帮助,每个阶段在 计算机视觉 (CV) 管线中都有其独特的作用:
检测头的设计已显著发展,以提高速度和准确性,特别是从传统方法向现代 实时推理 模型的转变。
检测头的精度对于在安全关键型和工业环境中部署 人工智能 (AI) 至关重要。用户可以使用 Ultralytics 平台 轻松标注数据并训练这些专用检测头。
以下示例演示了如何加载
YOLO26 模型并检查其检测头的输出。当推理运行时,检测头会处理图像并返回最终结果 boxes 包含坐标和类别ID。
from ultralytics import YOLO
# Load the YOLO26n model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image to utilize the detection head
results = model("https://ultralytics.com/images/bus.jpg")
# The detection head outputs are stored in results[0].boxes
for box in results[0].boxes:
# Print the bounding box coordinates and the predicted class
print(f"Class: {int(box.cls)}, Coordinates: {box.xywh.numpy()}")
这种交互突出了检测头如何将复杂的神经网络激活转化为可读数据,供开发者用于目标track或计数等下游任务。

开启您的机器学习未来之旅