了解关键点如何在 AI 中定义物体几何形状和姿态。探索使用 Ultralytics YOLO26 进行姿势估计,并开始使用我们易于使用的 Python SDK。
关键点是图像中独特的空间位置或地标,它们定义了对象或主体的显著特征。在计算机视觉和机器学习的背景下,关键点通常由一组坐标(X,Y)表示,这些坐标精确地指示对象的特定部分,例如人的肘部、建筑物的角落或汽车车轮的中心。与仅识别对象存在的简单任务不同,识别关键点使 人工智能 (AI) 模型能够理解主体的几何形状、姿势和结构排列。这种能力是高级视觉分析的基础,使机器能够解释肢体语言、track 精确运动,并将数字叠加层与现实世界中的对象对齐。
关键点是 姿势估计 的基础数据,这是一种映射人类或动物骨骼结构的技术。通过detect预定义的一组点——例如肩膀、膝盖和脚踝——算法可以实时重建主体的完整姿势。这个过程超越了标准的 目标检测,后者通常只输出对象的边界框而不理解其内部形状。
现代架构,例如最先进的 Ultralytics YOLO26,已经发展到能够以高精度和高速预测这些关键点。这些模型利用在大量标注数据集(例如 COCO Keypoints)上训练的 深度学习 (DL) 网络,来学习与关节和面部特征相关的视觉模式。在推理过程中,模型会回归每个关键点的坐标,通常还会包含一个置信度分数来指示预测的可靠性。
区分关键点与其他常见的计算机视觉输出有助于理解其独特用途:
追踪特定身体部位或物体特征的能力,在各行业中解锁了多样化的应用:
开发者可以利用 Ultralytics Platform 或 python SDK 轻松实现关键点 detect。以下示例演示了如何加载预训练的 YOLO26-姿势估计 模型 并在图像上运行推理以 detect 人体骨架。
from ultralytics import YOLO
# Load a pre-trained YOLO26 pose estimation model
model = YOLO("yolo26n-pose.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results showing detected keypoints and skeletons
for result in results:
result.show() # Display the image with keypoints drawn
# Access keypoint coordinates (x, y, confidence)
keypoints = result.keypoints.data
print(f"Detected keypoints shape: {keypoints.shape}")
这种简单的工作流程支持快速部署复杂的 计算机视觉 (CV) 应用。对于希望训练自己的自定义关键点模型的用户——例如,用于 detect 工业机械或动物物种上的特定点——Ultralytics Platform 简化了云端数据标注和模型训练的过程。
成功部署关键点检测需要应对遮挡(当身体部位被隐藏时)和多样化光照条件等挑战。现代模型通过在训练期间进行鲁棒的 数据增强 来解决此问题,使网络暴露于各种场景。此外,将关键点与 目标 track 算法集成,可以在视频流中实现对个体的长时间一致识别,这对于安全或行为分析等应用至关重要。
开启您的机器学习未来之旅