探索计算机视觉的关键点:使用Ultralytics YOLO11 姿势估计 ,用于健身、手势识别和快速准确的跟踪。
关键点是图像中具有特定信息价值的空间位置,用于定义物体或场景的独特特征。在计算机视觉领域,这些点通常以X和Y坐标表示,标记着重要的兴趣区域,例如建筑物的转角、眼睛和鼻子等面部特征,或是人体的解剖关节。 与处理密集网格中的每个像素不同,聚焦于这些稀疏且语义丰富的点,能使人工智能(AI)模型高效理解几何结构、分析形状并track 高精度track 。该概念是实现高级任务的基础——这些任务需要对主体进行结构化理解,而非仅识别其存在或位置。
关键点是映射动态物体结构的基础构建模块。当多个关键点被检测并连接时,它们会形成骨架图或线框模型,用于表示物体的姿势估计。这种技术最常应用于姿势估计 其中深度学习(DL)算法通过预测关节位置——包括肩、肘、髋和膝关节——来重建人类或动物的姿势。
通过运用Ultralytics 等先进架构,系统能够以惊人的速度直接从输入图像中回归这些坐标。 该过程涉及复杂的特征提取, 神经网络通过学习识别局部模式, 实现对光照、旋转和缩放的不变性。 由于关键点能浓缩呈现物体状态, 其计算效率显著提升, 成为边缘计算设备上 实时推理的理想选择。
要理解关键点的具体用途,将其Ultralytics 中其他主要计算机视觉任务进行比较会有所帮助:
track 主题特定点的能力为各行各业的多样化应用打开了大门:
现代程序库可以直接使用预先训练好的模型来实现关键点检测。关键点检测
ultralytics 该软件包提供对YOLO26等尖端模型的即时访问。
YOLO11,可基于如下数据集进行训练:
COCO 或
虎式姿势估计.
以下示例演示了如何加载姿势估计 模型,并Python可视化检测到的关键点:
from ultralytics import YOLO
# Load a pretrained YOLO26n-pose model
model = YOLO("yolo26n-pose.pt")
# Run inference on a local image
results = model("path/to/runner.jpg")
# Visualize the results, showing the skeletal keypoints
results[0].show()
在此工作流中,模型输出一个包含坐标和一个结果对象。
信心分数 每个检测到的点。开发人员可以
提取这些原始 x, y 值来构建自定义逻辑,例如在健身房应用程序中计算重复次数或
通过 动作捕捉.
.webp)
