深圳Yolo 视觉
深圳
立即加入
词汇表

要点

探索计算机视觉的关键点:使用Ultralytics YOLO11 姿势估计 ,用于健身、手势识别和快速准确的跟踪。

关键点是图像中具有特定信息价值的空间位置,用于定义物体或场景的独特特征。在计算机视觉领域这些点通常以X和Y坐标表示,标记着重要的兴趣区域,例如建筑物的转角、眼睛和鼻子等面部特征,或是人体的解剖关节。 与处理密集网格中的每个像素不同,聚焦于这些稀疏且语义丰富的点,能使人工智能(AI)模型高效理解几何结构、分析形状并track 高精度track 。该概念是实现高级任务的基础——这些任务需要对主体进行结构化理解,而非仅识别其存在或位置。

关键点在视觉人工智能中的作用

关键点是映射动态物体结构的基础构建模块。当多个关键点被检测并连接时,它们会形成骨架图或线框模型,用于表示物体的姿势估计。这种技术最常应用于姿势估计 其中深度学习(DL)算法通过预测关节位置——包括肩、肘、髋和膝关节——来重建人类或动物的姿势。

通过运用Ultralytics 等先进架构,系统能够以惊人的速度直接从输入图像中回归这些坐标。 该过程涉及复杂的特征提取神经网络通过学习识别局部模式, 实现对光照、旋转和缩放的不变性。 由于关键点能浓缩呈现物体状态, 其计算效率显著提升, 成为边缘计算设备上 实时推理的理想选择。

区分关键点与相关概念

要理解关键点的具体用途,将其Ultralytics 中其他主要计算机视觉任务进行比较会有所帮助:

  • 关键点与目标检测 标准检测通过边界框定位物体的位置与类型 边界框将物体视为刚性矩形。 关键点则透过边界框识别物体内部的关节、姿态及柔性结构。
  • 关键点与实例分割 实例分割 分割可以为物体的轮廓创建一个像素完美的遮罩。虽然分割能提供最终的 边界细节,但通常计算量较大。关键点可提供简化的结构摘要,通常是分析运动学时的首选。 分析运动学或运动动力学时的首选。
  • 关键点检测与数据标注 标注是人工对数据进行标记的过程,而关键点检测则是模型进行预测的结果。创建训练数据集需要人工点击特定点(例如"左腕"),通过监督学习来训练模型。

实际应用

track 主题特定点的能力为各行各业的多样化应用打开了大门:

  • 人工智能在医疗与康复领域的应用 物理治疗应用可远程监控患者锻炼情况。通过追踪身体特征点,系统确保 患者以正确姿势完成锻炼,从而促进有效康复。这通常涉及计算 自由度以了解 患者的关节活动范围。
  • 运动分析 教练和运动员利用关键点检测技术分析生物力学。通过追踪高尔夫挥杆或冲刺过程中关节间的角度,系统可提供自动化反馈以优化表现并预防运动损伤。
  • 驾驶员监测系统:在汽车行业中, 人脸识别系统track 特征点(眼睛、嘴巴)来detect 疲劳或detect ,并向驾驶员发出警报以预防事故发生。
  • 增强现实(AR)在社交媒体滤镜和虚拟试穿应用中,面部关键点使数字面具或眼镜能与用户动作完美同步,这需要精确的人机交互

实施关键点检测

现代程序库可以直接使用预先训练好的模型来实现关键点检测。关键点检测 ultralytics 该软件包提供对YOLO26等尖端模型的即时访问。 YOLO11,可基于如下数据集进行训练: COCO虎式姿势估计.

以下示例演示了如何加载姿势估计 模型,并Python可视化检测到的关键点:

from ultralytics import YOLO

# Load a pretrained YOLO26n-pose model
model = YOLO("yolo26n-pose.pt")

# Run inference on a local image
results = model("path/to/runner.jpg")

# Visualize the results, showing the skeletal keypoints
results[0].show()

在此工作流中,模型输出一个包含坐标和一个结果对象。 信心分数 每个检测到的点。开发人员可以 提取这些原始 x, y 值来构建自定义逻辑,例如在健身房应用程序中计算重复次数或 通过 动作捕捉.

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入