探索如何使用 RKNN Toolkit 在 Rockchip 上部署 Ultralytics YOLO11,以实现高效的 Edge AI、AI 加速和实时目标检测。

探索如何使用 RKNN Toolkit 在 Rockchip 上部署 Ultralytics YOLO11,以实现高效的 Edge AI、AI 加速和实时目标检测。
人工智能社区最近的一个热门词汇是边缘 AI,尤其是在计算机视觉方面。随着 AI 驱动的应用程序的增长,越来越需要在功率和计算资源有限的嵌入式设备上高效运行模型。
例如,无人机使用视觉 AI 进行实时导航,智能相机立即检测物体,工业自动化系统执行质量控制而无需依赖云计算。这些应用需要在边缘设备上直接进行快速、高效的 AI 处理,以确保实时性能和低延迟。但是,在边缘设备上运行 AI 模型并不总是那么容易。AI 模型通常需要比许多边缘设备所能承受的更多的功率和内存。
瑞芯微的 RKNN Toolkit 通过优化深度学习模型以适应瑞芯微驱动的设备,从而解决了这个问题。它利用专用的神经处理单元(NPU)来加速推理,与 CPU 或 GPU 处理相比,降低了延迟和功耗。
视觉 AI 社区一直渴望在基于瑞芯微的设备上运行 Ultralytics YOLO11,我们听到了您的声音。 我们增加了对将 YOLO11 导出为 RKNN模型格式的支持。 在本文中,我们将探讨导出到 RKNN 的工作原理,以及在瑞芯微驱动的设备上部署 YOLO11 为何会改变游戏规则。
瑞芯微是一家设计片上系统 (SoC) 的公司——这种微小而强大的处理器可以运行许多嵌入式设备。这些芯片结合了 CPU、GPU 和神经处理单元 (NPU),可以处理从通用计算任务到依赖于目标检测和图像处理的视觉 AI 应用程序的所有事务。
瑞芯微(Rockchip)SoC 广泛应用于各种设备,包括单板计算机(SBC)、开发板、工业 AI 系统和智能摄像头。许多知名的硬件制造商,如 Radxa、华硕(ASUS)、Pine64、Orange Pi、Odroid、Khadas 和 Banana Pi,都生产由瑞芯微 SoC 驱动的设备。这些开发板因其在性能、能效和成本效益之间的平衡,而广泛应用于边缘 AI 和计算机视觉应用。
为了帮助 AI 模型在这些设备上高效运行,瑞芯微提供了 RKNN(Rockchip Neural Network)工具包。它使开发人员能够转换和优化深度学习模型,以使用瑞芯微的神经处理单元 (NPU)。
RKNN 模型经过优化,可实现低延迟推理和高效的功耗。通过将模型转换为 RKNN,开发人员可以在 Rockchip 驱动的设备上实现更快的处理速度、更低的功耗和更高的效率。
让我们仔细看看 RKNN 模型如何提高 Rockchip 设备上的 AI 性能。
与处理各种计算任务的 CPU 和 GPU 不同,Rockchip 的 NPU 专为深度学习而设计。 通过将 AI 模型转换为 RKNN 格式,开发人员可以直接在 NPU 上运行推理。 这使得 RKNN 模型对于实时计算机视觉任务特别有用,在这些任务中,快速高效的处理至关重要。
NPU 比 CPU 和 GPU 更快、更高效,因为它们专为并行处理神经网络计算而构建。虽然 CPU 一次处理一个任务,GPU 将工作负载分配到多个内核,但 NPU 经过优化,可以更有效地执行 AI 专用计算。
因此,RKNN 模型运行速度更快,功耗更低,非常适合电池供电设备、智能相机、工业自动化和其他需要实时决策的边缘 AI 应用。
Ultralytics YOLO (You Only Look Once) 模型专为实时计算机视觉任务而设计,例如对象检测、实例分割和图像分类。它们以其速度、准确性和效率而闻名,并广泛应用于农业、制造业、医疗保健和自主系统等行业。
随着时间的推移,这些模型得到了显著改进。例如,Ultralytics YOLOv5 通过 PyTorch 使目标检测更易于使用。然后,Ultralytics YOLOv8 添加了诸如姿势估计和图像分类等新功能。现在,YOLO11 通过在减少资源使用的同时提高准确性,使事情更进一步。事实上,YOLO11m 在 COCO 数据集上的性能优于 YOLOv8m,同时使用的参数减少了 22%,使其既更精确又更高效。
Ultralytics YOLO 模型还支持导出为多种格式,从而可以在不同平台上灵活部署。这些格式包括 ONNX、TensorRT、CoreML 和 OpenVINO,使开发人员可以根据目标硬件自由优化性能。
通过增加对将 YOLO11 导出为 RKNN 模型格式的支持,YOLO11 现在可以利用瑞芯微(Rockchip)的 NPU。最小的模型 YOLO11n(RKNN 格式)实现了令人印象深刻的每张图像 99.5 毫秒的推理时间,即使在嵌入式设备上也能实现实时处理。
目前,YOLO11 目标检测模型可以导出为 RKNN 格式。 另外,请继续关注 - 我们正在努力在未来的更新中增加对其他计算机视觉任务和 INT8 量化的支持。
将 YOLO11 导出为 RKNN 格式是一个简单的过程。您可以加载自定义训练的 YOLO11 模型,指定目标 Rockchip 平台,并通过几行代码将其转换为 RKNN 格式。RKNN 格式与各种 Rockchip SoC 兼容,包括 RK3588、RK3566 和 RK3576,确保广泛的硬件支持。
导出后,RKNN 模型可以部署在基于 Rockchip 的设备上。要部署模型,您只需将导出的 RKNN 文件加载到您的 Rockchip 设备上并运行推理——即使用经过训练的 AI 模型来分析新的图像或视频并实时检测对象的过程。只需几行代码,您就可以开始识别图像或视频流中的对象。
为了更好地了解YOLO11在现实世界中可以在启用Rockchip的设备上部署的位置,让我们来看一些关键的边缘AI应用。
瑞芯微处理器广泛应用于基于 Android 的平板电脑、开发板和工业 AI 系统。凭借对 Android、Linux 和 Python 的支持,您可以轻松构建和部署用于各种行业的视觉 AI 驱动的解决方案。
在瑞芯微 (Rockchip) 设备上运行 YOLO11 的一个常见应用是加固平板电脑。它们是耐用的高性能平板电脑,专为仓库、建筑工地和工业环境等恶劣环境而设计。这些平板电脑可以利用目标检测来提高效率和安全性。
例如,在仓库物流中,工人可以使用配备 YOLO11 的 Rockchip 驱动的平板电脑自动扫描和检测库存,从而减少人为错误并加快处理速度。同样,在建筑工地上,这些平板电脑可用于检测工人是否佩戴了必需的安全装备,如头盔和背心,从而帮助公司执行法规并防止事故发生。
在制造和自动化方面,基于瑞芯微(Rockchip)的工业主板可以在质量控制和过程监控中发挥重要作用。工业主板是一种紧凑、高性能的计算模块,专为工业环境中的嵌入式系统而设计。这些主板通常包括处理器、内存、I/O 接口和连接选项,可以与传感器、相机和自动化机械集成。
在这些开发板上运行 YOLO11 模型可以实时分析生产线,立即发现问题并提高效率。例如,在汽车制造中,使用瑞芯微硬件和 YOLO11 的 AI 系统可以检测汽车在装配线上移动时出现的划痕、未对准的部件或油漆缺陷。通过实时识别这些缺陷,制造商可以减少浪费,降低生产成本,并确保车辆在交付给客户之前达到更高的质量标准。
基于瑞芯微的设备在性能、成本和效率之间实现了良好的平衡,使其成为在边缘 AI 应用中部署 YOLO11 的绝佳选择。
以下是在基于瑞芯微的设备上运行 YOLO11 的一些优势:
Ultralytics YOLO11 可以通过利用硬件加速和 RKNN 格式在基于瑞芯微 (Rockchip) 的设备上高效运行。这减少了推理时间并提高了性能,使其成为实时计算机视觉任务和边缘 AI 应用的理想选择。
RKNN 工具包提供量化和微调等关键优化工具,确保 YOLO11 模型在瑞芯微平台上表现良好。随着边缘 AI 采用率的增长,优化模型以实现高效的设备端处理将至关重要。借助正确的工具和硬件,开发人员可以释放各个行业中计算机视觉解决方案的新的可能性。
加入我们的社区,探索我们的GitHub 存储库,以了解更多关于 AI 的信息。 通过访问我们的解决方案页面,了解农业中的计算机视觉和医疗保健中的 AI如何推动创新。 此外,请查看我们的许可选项,立即开始构建您的视觉 AI 解决方案!