探索姿势估计 :关键点模型(自上而下与自下而上)的工作原理,从医疗到体育的实际应用,以及关键优势和挑战。
姿势估计是一项专门的 计算机视觉 (CV)任务。 检测物体之外,还能识别物体的具体几何形状和方向。通过精确定位结构性 该技术通过精确定位结构性地标(称为关键点)的坐标来创建物体的 骨骼表示法。在人体中,这些关键点通常映射到肩部、肘部、髋部和膝部等主要关节、 髋关节和膝关节。这种功能允许 机器学习 (ML)模型解释肢体语言、活动和姿势 语言、活动和姿势,弥补了简单像素检测与理解复杂物理行为之间的差距。 行为之间的桥梁。
现代姿势估计 估计在很大程度上依赖于 深度学习(DL)架构,特别是 卷积神经网络 (CNN) 以及越来越多的变形器。这一过程通常分为两种主要方法:
对于高性能应用,如 Ultralytics YOLO11等模型整合了这些概念,以提供快速 姿势估计,适用于边缘设备。
将 "姿势估计 "与类似的视觉任务区分开来至关重要:
姿势估计 的实用性遍及对运动分析至关重要的各个行业。
在医疗保健领域的人工智能领域,姿势估计 通过自动跟踪病人的运动来协助物理治疗。系统可以测量康复训练中的关节角度 以确保病人保持正确的姿势,降低再次受伤的风险。这使得 实现远程监控和远程医疗、 使优质护理更容易获得。
教练和运动员使用 运动分析 分析成绩。通过从视频中提取 生物力学数据 通过从视频中提取生物力学数据,人工智能可以分析高尔夫球手的挥杆平面或跑步者的步态效率,而无需传统运动捕捉中使用的侵入性标记服。 传统动作捕捉中使用的侵入性标记服。
以下是 Python 片段演示了如何加载预训练的YOLO11 模型,并对图像执行姿势估计。
并对图像执行姿势估计 。这需要 ultralytics 软件包,并将
骨骼输出。
from ultralytics import YOLO
# Load the official YOLO11 nano pose model
model = YOLO("yolo11n-pose.pt")
# Run inference on an image source
results = model("https://docs.ultralytics.com/usage/python/")
# Visualize the detected keypoints and skeleton
results[0].show()
训练强大的姿势估计 模型需要大量的注释数据集。 COCO 姿势估计 数据集等标准基准提供了 数以千计的标注人体图像。然而,挑战依然存在,例如遮挡(当身体部位被隐藏时 被隐藏)和自我遮挡(当一个人遮挡住自己的肢体时)。解决这些问题需要 先进的数据增强技术和多样化的 训练数据,涵盖各种角度和光照条件。 条件。