了解姿势估计如何利用关键点 track 运动。探索实际应用,并开始使用 Ultralytics YOLO26 实现快速、准确的结果。
姿势估计是一种专门的计算机视觉技术,它不仅限于detect物体的存在,更进一步理解其几何结构和物理方向。标准的目标detect只是在主体周围绘制一个简单的矩形框,而姿势估计则识别特定的语义点,即关键点,例如人体关节(肘部、膝盖、肩部)或车辆的结构角点。通过映射这些地标,机器学习模型可以重建主体的骨骼表示,使系统能够解释肢体语言、运动动态以及在2D或3D空间中的精确位置。
现代姿势估计严重依赖复杂的深度学习架构,通常利用卷积神经网络 (CNN)来处理视觉数据。算法通常遵循两种主要策略之一来识别关键点:
像YOLO26这样的最先进模型利用先进的端到端架构来平衡这些需求,提供高速姿势估计,适用于部署在边缘AI设备和移动平台上。
区分姿势估计与其他视觉识别任务有助于理解其在计算机视觉工作流中的独特价值:
将人体和物体运动数字化能力,已在各行各业催生了变革性应用,这些应用通常使用Ultralytics Platform等工具进行训练,以管理大量的标注关键点数据集。
在医疗领域,医疗AI利用姿势估计远程监测患者康复情况。通过track关节角度和运动范围,自动化系统可以确保患者在家中正确进行物理治疗练习。这降低了再次受伤的风险,并允许临床医生量化康复进展,而无需昂贵的实验室设备。
教练和运动员利用体育分析来优化表现。姿势估计模型可以分析高尔夫球手的挥杆平面、跑步者的步幅或投手的生物力学,而无需传统动作捕捉中使用的侵入性标记服。这提供了即时、数据驱动的反馈,以改进技术并预防过度使用造成的损伤。
在商业环境中,零售AI系统使用姿势detect来理解顾客行为,例如伸手拿高货架上的产品或在特定货架区域停留。这些数据有助于通过将身体行为与购买决策关联起来,优化商店布局并改进库存管理。
实现姿势估计在现代 Python 框架中。以下示例演示了如何使用 ultralytics 包来加载预训练的
YOLO26 模型(是...的继任者
YOLO11)并在图像中 detect 人体关键点。
from ultralytics import YOLO
# Load the YOLO26 pose model (nano version for speed)
model = YOLO("yolo26n-pose.pt")
# Perform inference on an image source
# The model identifies bounding boxes and specific keypoints (joints)
results = model("https://ultralytics.com/images/bus.jpg")
# Print the xy coordinates of detected keypoints
print(results[0].keypoints.xy)
# Visualize the skeletal results directly
results[0].show()
开启您的机器学习未来之旅