探索计算机视觉的关键点:使用Ultralytics YOLO11 姿势估计 ,用于健身、手势识别和快速准确的跟踪。
关键点是图像中精确、信息量大的空间位置,可确定物体或场景的明显特征。 场景。在计算机视觉领域,这些 坐标--通常表示为 X 和 Y 值--标记重要的兴趣点,如建筑物的角落、眼睛的中心或人体的关节。 建筑物的角落、眼睛的中心或人体的关节。与处理图像中的每个像素不同,聚焦于这些稀疏的、语义丰富的 与处理图像中的每个像素点不同,专注于这些稀疏但语义丰富的点,可以让 人工智能(AI)模型 高效地理解几何图形、分析形状并高精度地track 运动。这一概念是 对于需要从结构上了解对象而不仅仅是其存在或位置的高级任务来说,这一概念是基础。
关键点是映射动态对象结构的基本构件。当多个 当多个关键点被检测到并连接起来时,它们就形成了一个骨架图或线框,代表了对象的姿势估计。这 这种方法最常应用于姿势估计 中。 算法预测解剖关节(肩、肘、髋和膝)的位置,从而重建人体姿态。
利用深度学习架构,如 YOLO11等深度学习架构,系统可以直接从输入图像中回归这些坐标。这一过程涉及 复杂的特征提取 识别不受光照、旋转和比例影响的局部模式。由此产生的数据轻便且 计算效率高,非常适合 在边缘设备上进行实时推理。
要了解关键点的具体用途,不妨将其与其他主要计算机视觉任务进行比较。 任务进行比较:
track 主题特定点的能力为各行各业的多样化应用打开了大门:
现代程序库可以直接使用预先训练好的模型来实现关键点检测。关键点检测
ultralytics 软件包可即时访问
YOLO11 在海量数据集上训练的模型,如
COCO 来识别人体关节。
下面的示例演示了如何加载姿势估计 模型并可视化检测到的关键点:
from ultralytics import YOLO
# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")
# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")
# Visualize the results, showing the skeletal keypoints
results[0].show()
在此工作流程中,模型会输出一个 Keypoints 对象,其中包含坐标和一个
信心分数 每个检测到的点。开发人员可以
提取这些原始 x, y 值来构建自定义逻辑,例如在健身房应用程序中计算重复次数或
通过
人机交互.