深圳Yolo 视觉
深圳
立即加入
词汇表

姿势估计

了解姿势估计 如何利用关键点track 。探索实际应用场景,Ultralytics 快速获取精准结果。

姿势估计 专业的计算机视觉技术,其作用不仅限于检测物体的存在,更在于理解其几何结构与物理方位。标准物体检测仅在目标周围绘制简单的矩形边框,姿势估计 识别特定语义点——即关键点,例如人体关节(肘部、膝盖、肩膀)或车辆结构拐角。 通过映射这些特征点, 机器学习模型能够重建目标的骨架模型, 从而使系统能够解读肢体语言、运动动态, 并在二维或三维空间中实现精准定位。

核心机制:自上而下与自下而上

现代姿势估计 高度依赖复杂的深度学习架构,通常采用卷积神经网络(CNN)处理视觉数据。这些算法通常遵循两种主要策略来识别关键点:

  • 自顶向下方法:该方法首先运用目标检测模型在边界框内定位单个实例。当人物或物体从大图像中裁剪出来后,姿势估计 便会预测该特定区域内的关键点。这种方法通常具有较高精度,但随着画面中主体数量的增加,其推理延迟可能随之升高。
  • 自下而上方法:相反地,该策略会同时检测整幅图像中的所有潜在关键点(例如在人群中找出每个“左膝”),随后运用关联算法将它们聚合为独立骨架。这种方法通常更适用于拥挤场景的实时推理,因为其计算成本保持相对恒定,不受场景中人物数量影响。

像YOLO26这样的尖端模型采用先进的端到端架构,在这些需求之间取得平衡,提供高速姿势估计 适用于在边缘AI设备和移动平台上部署。

区分相关的计算机视觉术语

区分姿势估计 与其他视觉识别任务有助于理解其在计算机视觉工作流程中的独特价值:

  • 物体检测: 专注于识别物体的类型及其位置,输出矩形边界框。该方法将主体视为刚性物体,不理解其内部结构。
  • 实例分割: 生成像素级精确的遮罩,勾勒出物体的精确轮廓。虽然分割提供了边界,但它 并未明确标识出运动学分析所需的关节或骨骼连接关系。
  • 姿势估计 : 专门针对内部结构,通过映射预设解剖标志点(如髋关节与膝关节)之间的连接关系来分析姿势与动作。

实际应用

将人类与物体运动数字化的能力已在各行各业催生出变革性应用, 这些应用通常借助Ultralytics 等工具进行训练, 用于管理标注关键点的大型数据集。

医疗保健和康复

在医疗领域,人工智能通过 姿势估计 实现远程康复监测。通过追踪关节角度和活动范围,自动化系统能确保患者在家中正确执行物理治疗训练。这既降低了再次受伤的风险,又使临床医生无需昂贵的实验室设备即可量化康复进展。

体育分析

教练和运动员利用 运动分析技术 来优化表现。姿势估计 能够分析高尔夫球手的挥杆平面、跑步者的步幅长度或投手的生物力学,无需使用传统动作捕捉中侵入性的标记服。这提供了即时、数据驱动的反馈,以改进技术并预防过度使用损伤。

零售与行为分析

在商业环境中,零售系统的人工智能 姿势估计 来理解顾客行为,例如伸手取高架商品或在特定货道停留。这些数据通过将物理动作与购买决策相关联,有助于优化店铺布局并改善库存管理

代码示例:姿势估计 (基于YOLO26的姿势估计 )

使用现代技术实现姿势估计 非常简单。 Python 框架。 以下示例演示了如何使用 ultralytics 加载预训练模型包 YOLO26 模型(作为 YOLO11) 并在图像中detect 关键点。

from ultralytics import YOLO

# Load the YOLO26 pose model (nano version for speed)
model = YOLO("yolo26n-pose.pt")

# Perform inference on an image source
# The model identifies bounding boxes and specific keypoints (joints)
results = model("https://ultralytics.com/images/bus.jpg")

# Print the xy coordinates of detected keypoints
print(results[0].keypoints.xy)

# Visualize the skeletal results directly
results[0].show()

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入