了解关键点如何定义AI中的物体几何结构与姿态。探索Ultralytics 姿势估计 并通过我们易于Python 开启实践之旅。
关键点是图像中定义物体或主体重要特征的独特空间位置或地标。在计算机视觉和机器学习领域,关键点通常由一组坐标(X, Y)表示,用于精确定位物体的特定部位,例如人的肘部、建筑物的转角或汽车车轮的中心。 与仅识别物体存在的基本任务不同,关键点识别使人工智能(AI)模型能够理解主体的几何结构、姿态及构造布局。这项能力是高级视觉分析的基础,使机器能够解读肢体语言、track 动作,并将数字叠加层与现实物体进行对齐。
关键点作为姿势估计 的基础数据,该技术可映射人类或动物的骨骼结构。 通过检测预定义点集(如肩、膝、踝等),算法可实时重建姿势估计 完整姿势估计 。该过程超越了标准物体检测技术——后者通常仅输出物体外框,却无法理解其内部形态。
现代架构,如Ultralytics 已发展到能以高精度和速度预测这些关键点。这些模型利用深度学习(DL)网络,在海量标注数据集(COCO )上训练,从而学习与关节和面部特征相关的视觉模式。 在推理过程中,模型会回归每个关键点的坐标,通常还会提供置信度评分以指示预测的可靠性。
区分关键点与其他常见计算机视觉输出有助于理解其独特价值:
track 身体部位或物体特征的能力,为跨行业应用开辟了多样化的可能性:
开发者可通过Ultralytics 或Python 轻松实现关键点检测。以下示例演示了如何加载预训练姿势估计 ,并对图像进行推理以detect 人体骨架。
from ultralytics import YOLO
# Load a pre-trained YOLO26 pose estimation model
model = YOLO("yolo26n-pose.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results showing detected keypoints and skeletons
for result in results:
result.show() # Display the image with keypoints drawn
# Access keypoint coordinates (x, y, confidence)
keypoints = result.keypoints.data
print(f"Detected keypoints shape: {keypoints.shape}")
该简易工作流可实现复杂计算机视觉(CV)应用的快速部署。对于希望训练自定义关键点模型的用户——例如用于detect 工业机械detect 部位或动物物种Ultralytics 云端数据标注与模型训练流程的简化,显著提升了开发效率。
成功部署关键点检测技术需应对遮挡(身体部位被遮蔽时)及多样化光照条件等挑战。现代模型通过在训练阶段采用稳健的数据增强技术来解决此问题,使网络接触到多样化的场景。此外,将关键点检测与目标追踪算法相结合,可在视频流中实现对个体的时间连续识别,这对安防或行为分析等应用至关重要。