深圳Yolo 视觉
深圳
立即加入
词汇表

要点

探索计算机视觉的关键点:使用Ultralytics YOLO11 姿势估计 ,用于健身、手势识别和快速准确的跟踪。

关键点是图像中精确、信息量大的空间位置,可确定物体或场景的明显特征。 场景。在计算机视觉领域,这些 坐标--通常表示为 X 和 Y 值--标记重要的兴趣点,如建筑物的角落、眼睛的中心或人体的关节。 建筑物的角落、眼睛的中心或人体的关节。与处理图像中的每个像素不同,聚焦于这些稀疏的、语义丰富的 与处理图像中的每个像素点不同,专注于这些稀疏但语义丰富的点,可以让 人工智能(AI)模型 高效地理解几何图形、分析形状并高精度地track 运动。这一概念是 对于需要从结构上了解对象而不仅仅是其存在或位置的高级任务来说,这一概念是基础。

关键点在视觉人工智能中的作用

关键点是映射动态对象结构的基本构件。当多个 当多个关键点被检测到并连接起来时,它们就形成了一个骨架图或线框,代表了对象的姿势估计。这 这种方法最常应用于姿势估计 中。 算法预测解剖关节(肩、肘、髋和膝)的位置,从而重建人体姿态。

利用深度学习架构,如 YOLO11等深度学习架构,系统可以直接从输入图像中回归这些坐标。这一过程涉及 复杂的特征提取 识别不受光照、旋转和比例影响的局部模式。由此产生的数据轻便且 计算效率高,非常适合 在边缘设备上进行实时推理

区分关键点与相关概念

要了解关键点的具体用途,不妨将其与其他主要计算机视觉任务进行比较。 任务进行比较:

  • 关键点检测与对象检测 标准检测通过将物体包围在一个 边界框。不过,包围盒将物体视为 一个僵硬的矩形。而关键点则是在框内识别内部衔接和姿态。
  • 关键点与实例分割 实例分割 分割可以为物体的轮廓创建一个像素完美的遮罩。虽然分割能提供最终的 边界细节,但通常计算量较大。关键点可提供简化的结构摘要,通常是分析运动学时的首选。 分析运动学或运动动力学时的首选。
  • 关键点与数据注释 注释是人为标注数据的过程,而关键点检测则是模型的预测。创建 数据集需要手动点击特定点(如 "左腕")来训练模型。

实际应用

track 主题特定点的能力为各行各业的多样化应用打开了大门:

  • 运动分析 教练和运动员利用关键点检测分析生物力学。通过跟踪高尔夫挥杆或短跑过程中关节之间的角度 系统可提供自动反馈,以优化表现并防止受伤。这 通常需要计算 自由度,以了解运动范围。 运动范围。
  • 机器人技术中的人工智能机器人依靠 关键点来抓取和操纵物体。识别物体上的特定抓取点可让机械臂 计算 逆运动学并正确定位其末端执行器。 其末端执行器的正确位置。
  • 医疗保健领域的人工智能物理治疗 物理治疗应用可远程监控病人的锻炼情况。通过跟踪身体地标,该系统可确保练习 以正确的形式进行,从而帮助患者进行有效的康复治疗。
  • 增强现实(AR)在社交 在社交媒体滤镜和虚拟试戴应用中,面部的关键点(面部地标)可使数字面具或眼镜与用户的动作完美对齐。 与用户的动作完全一致。

实施关键点检测

现代程序库可以直接使用预先训练好的模型来实现关键点检测。关键点检测 ultralytics 软件包可即时访问 YOLO11 在海量数据集上训练的模型,如 COCO 来识别人体关节。

下面的示例演示了如何加载姿势估计 模型并可视化检测到的关键点:

from ultralytics import YOLO

# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")

# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")

# Visualize the results, showing the skeletal keypoints
results[0].show()

在此工作流程中,模型会输出一个 Keypoints 对象,其中包含坐标和一个 信心分数 每个检测到的点。开发人员可以 提取这些原始 x, y 值来构建自定义逻辑,例如在健身房应用程序中计算重复次数或 通过 人机交互.

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入