探索用于高速实时AI的单阶段目标检测器。了解 Ultralytics YOLO26 如何为边缘AI和部署提供卓越的准确性和效率。
单阶段目标检测器是一类强大的 深度学习 架构,旨在以卓越的速度和效率执行 目标检测 任务。与将检测过程分为区域提案和随后的 classify 两个独立步骤的传统 两阶段目标检测器 不同,单阶段模型在单次通过中分析整个图像。通过将检测视为一个直接的回归问题,这些网络直接从输入像素同时预测 bounding box 坐标和类别概率。这种简化的方法显著减少了计算开销,使单阶段检测器成为需要 实时推理 并在资源受限的 边缘 AI 设备上部署的应用程序的首选。
单阶段检测器的架构通常围绕一个 卷积神经网络 (CNN),该网络作为 特征提取 的 主干网络。当图像通过网络时,模型生成一个特征图网格,编码空间和语义信息。
早期实现,例如 Single Shot MultiBox Detector (SSD),依赖于在不同尺度上预定义的 anchor boxes 来定位物体。然而,像 Ultralytics YOLO11 和最先进的 YOLO26 这样的现代进展已大部分转向 anchor-free 设计。这些新架构直接预测物体中心和大小,消除了与 anchor 相关的复杂超参数调整需求。最终输出包括用于定位的坐标向量和一个 置信度 分数,代表模型对检测到的物体的确定性。
区分这两个主要类别有助于为特定任务选择正确的工具:
单阶段检测器的效率推动了它们在即时响应至关重要的各个不同行业中的广泛采用:
使用现代高级API实现单阶段检测器非常简单。为确保结果准确,模型通常会预测多个潜在边界框,然后通过诸如 非极大值抑制(NMS) 等技术,基于 交并比(IoU) 阈值进行过滤,尽管像 YOLO26 这样的新型端到端模型可以原生处理此问题。
以下 python 示例演示了如何加载最先进的 YOLO26 模型并在图像上执行推理:
from ultralytics import YOLO
# Load the YOLO26 model, the latest natively end-to-end one-stage detector
model = YOLO("yolo26n.pt")
# Run inference on an image URL to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the first result with bounding boxes and labels
results[0].show()
单阶段检测器的演进一直致力于克服“准确性与速度”之间的权衡。引入了诸如 Focal Loss 等技术来解决训练过程中的类别不平衡问题,确保模型专注于难以 classify 的样本,而非大量的背景。此外,特征金字塔网络(FPN) 的集成使得这些模型能够有效地 detect 不同尺度的物体。
如今,研究人员和开发者可以利用 Ultralytics Platform 等工具,轻松地在自定义数据集上训练这些先进的架构,该平台简化了从 数据标注 到模型部署的工作流程。无论是用于 农业 还是 医疗保健,单阶段检测器的可及性正在普及强大的计算机视觉能力。

开启您的机器学习未来之旅