了解如何自定义训练 Ultralytics YOLO11 以进行狗姿态估计,并利用训练后的模型进行宠物护理等实际应用。

了解如何自定义训练 Ultralytics YOLO11 以进行狗姿态估计,并利用训练后的模型进行宠物护理等实际应用。
如果通过你狗狗的姿势就能洞察它们的情绪,会怎么样?全天候手动监测它们并不容易。但是,得益于人工智能(AI)和 计算机视觉 的进步,我们可以实时分析视频素材,从而更好地了解它们的行为。
具体来说,像Ultralytics YOLO11这样的计算机视觉模型可以帮助估计狗的姿势并跟踪它们的运动,从而为它们的健康提供有价值的见解。这是如何运作的?YOLO11的姿势估计能力可以识别受试者身体上的关键点,以了解它们的姿势和运动。
此外,YOLO11 可以在专为狗姿态估计设计的数据集上进行自定义训练,从而能够准确分析宠物的肢体语言。Ultralytics Python 包支持 Dog-Pose Dataset(狗姿态数据集),从而更容易训练和部署用于狗的视觉 AI 模型。这项技术是蓬勃发展的 宠物科技市场 的一部分,该市场在 2024 年的估值为 94 亿美元,预计到 2037 年将达到 640 亿美元。
撰写本文的灵感来自我们的狗狗执行官 (DEO) Blues。 如果您查看我们的关于我们页面,您会发现 Blues 是一位重要的团队成员,在保持 Ultralytics 的乐趣方面发挥着重要作用!
在本文中,我们将讨论如何使用 Dog-Pose 数据集对 YOLO11 进行自定义训练,以进行狗姿态估计。我们还将探讨其在宠物护理和行为分析中的实际应用。
数据集是用于训练机器学习模型的数据集合。 对于姿势估计,理想的数据集包括带有标记关键点的图像,以映射身体姿势。 它还应该具有各种姿势、角度、光照条件和背景,以帮助模型学习准确识别和预测姿势。 这种多样性使模型在实际应用中更加可靠。
由 Ultralytics 提供支持的 Dog-Pose 数据集,专门用于帮助模型有效地学习和识别狗的姿势。它包含超过 8,400 张带有注释的各种犬种图像,并为 24 个关键点(如尾巴、耳朵和爪子)提供了详细的标签。
使用 Dog-Pose 数据集进行 YOLO11 自定义训练是一个简单的过程。首先,您需要安装 Ultralytics Python 包来设置您的环境,该软件包包含训练和评估所需的所有工具。
Ultralytics 内置了对 Dog-Pose 数据集的支持,无需手动标注,让您可以直接开始训练。完成所有设置后,您只需几行代码即可在 Dog-Pose 数据集上训练 YOLO11,如下图所示。
在训练过程中,模型学习检测和跟踪不同品种、光照条件和环境下的狗姿势。训练完成后,您可以可视化结果并微调模型,以提高准确性和性能。
如果您在训练模型时遇到任何问题,以下是一些故障排除提示,可帮助您快速解决这些问题:
您可以查看Ultralytics 常见问题解答指南,了解更多故障排除技巧。
您可能想知道当您在 Dog-Pose 数据集上自定义训练 YOLO11 时,幕后会发生什么。让我们仔细看看这个过程。
我们使用预训练的 YOLO11-pose 模型,而不是从头开始训练,该模型已经在 COCO-Pose 数据集上进行了训练。由于 COCO-Pose 专为人体姿态估计而设计,因此该预训练模型可以检测人体关键点。事实上,无需任何额外训练,您就可以直接使用 YOLO11-Pose 执行人体姿态估计。
通过迁移学习,我们专门针对狗的姿态估计调整此模型,帮助它识别腿、尾巴和头部等关键点。通过让模型接触特定于狗的示例,它可以学习专注于这些重要特征。
在训练过程中,模型的部分参数保持不变,保留从 COCO 数据集中获得的通用知识。其他部分则会重新训练,以提高估计狗姿势的准确性。模型通过比较其预测结果与数据集中的实际关键点,并进行调整以减少误差来进行学习。随着时间的推移,这个过程使其能够更准确地跟踪狗的运动。
迁移学习还使模型能够适应不同的品种、大小和运动模式,确保其在实际场景中可靠地运行。
市面上有很多计算机视觉模型,那么是什么让 YOLO11 成为犬类姿态估计的正确选择呢?
YOLO11 以其卓越的实时速度和准确性脱颖而出,使其成为犬类姿态估计的理想选择。它在精度和速度方面均优于以前的版本。与 YOLOv8 相比,它的参数减少了 22%,但在 COCO 数据集上实现了更高的平均精度均值 (mAP),这意味着它能够更准确、更高效地检测物体。其快速的处理速度使其非常适合需要快速可靠检测的实时应用。
除了姿势估计,YOLO11 还支持计算机视觉任务,如实例分割和对象跟踪,这有助于创建更全面的视觉 AI 解决方案来监控您的狗。这些功能可以改进运动跟踪、行为分析和整体宠物护理。
接下来,让我们讨论一下犬类姿态估计的实际应用及其对宠物护理的影响。
狗的姿势估计可以使狗的训练更智能、更有效。假设使用摄像头捕捉狗的动作,这时 YOLO11 就可以派上用场了。它可以检测腿、尾巴和头部等关键点,分析它们以识别坐、站或躺下等动作。
如果狗没有正确地执行动作,系统可以通过应用程序提供即时反馈,从而实时帮助训练员。这使得训练更加高效、精确,并能响应狗的进展。
例如,考虑教你的狗听从“坐下”的命令。该系统可以监控你狗的姿势,并检测它们是否完全坐下。如果狗降低身体但没有完全坐下,系统可以检测到不完整的动作,并通过应用程序发送即时反馈。可以更改训练方式,对训练进行小幅调整,例如加强命令或引导狗进入正确的位置。
计算机视觉可以改变兽医进行动物护理的方式。“犬类姿势估计”能够准确分析细节,从而更容易发现异常的运动模式并识别潜在的健康问题。
例如,一位监测从韧带损伤中恢复的狗的兽医可以依靠在Dog-Pose数据集上训练的YOLO11进行自动分析。跛行或腿部位置的变化可以很容易地被检测到。支持视觉的24/7连续监测可以清晰地了解狗的恢复情况,帮助他们确定治疗是否有效或是否需要调整。
随着技术的不断发展,使用 YOLO11 进行狗姿态估计等解决方案可能会在 动物监测 和福祉方面发挥更大的作用。 事实上,YOLO11 可以与可穿戴技术(如智能项圈和健康追踪器)集成,以监测关键的健康指标,如心率、活动水平和活动模式。
例如,配备运动传感器的智能项圈可以跟踪狗的行走或跑步步态,而YOLO11的姿势估计可以实时分析姿势。如果系统检测到不规则的运动,如跛行或僵硬,它可以将这些数据与心率和活动水平相关联,以评估潜在的不适或损伤。宠物主人和兽医可以使用这些信息来及早发现问题并采取积极的行动。
随着这些进步,狗姿态估计正在超越简单的运动跟踪,它正在成为一个全面的 AI 驱动的宠物护理系统的关键部分,帮助狗狗保持更健康、更安全,并在实时中得到更好的监控。
借助像YOLO11和Dog-Pose Dataset这样的创新,我们正在开启计算机视觉领域的新可能性。这些进步帮助我们以以前不可能的方式更好地了解狗的行为和健康。
通过准确跟踪狗的姿势,我们可以改进训练、监测健康状况,并使宠物护理更有效。无论是在研究、兽医护理还是狗训练中,视觉AI都在创造更智能的方式来照顾我们的狗并改善它们的福祉。
加入我们的社区,并探索我们的GitHub仓库,以了解更多关于人工智能的信息。了解计算机视觉在医疗保健领域和人工智能在自动驾驶汽车领域等创新如何塑造未来。查看我们的许可选项,立即开始您的视觉人工智能项目。