深圳Yolo 视觉
深圳
立即加入

Ultralytics YOLO 部署到Axelera AI硬件上,用于边缘AI

了解由Ultralytics Python 与 Axelera AI 合作推出的全新导出集成功能,助力实现高效的高性能边缘 AI。

借助Ultralytics扩展您的计算机视觉项目

开始使用

Ultralytics随着人工智能的广泛应用,我们观察到越来越多的趋势表明,人们正转向直接在边缘设备上运行计算机视觉模型。无论是在线上交流,还是在近期技术会议上的面对面交流,我们的团队都注意到,计算机视觉社区对将视觉人工智能部署在更接近数据生成源头的位置表现出日益浓厚的兴趣。

从智能零售环境和工业自动化到机器人技术,实时洞察正变得至关重要,仅依赖云端已不再足够。

简而言之,边缘人工智能是指在设备本地运行人工智能模型,而非将数据发送至集中式服务器进行处理。这使得降低延迟、提高可靠性并实时响应现实世界中的事件成为可能。 

然而,在这些环境中部署高性能模型也面临着独特的挑战,因为计算资源有限且受功耗限制,因此模型必须既高效,又需针对其运行的硬件进行优化。

Ultralytics YOLO (如Ultralytics )专为实时计算机视觉而设计,但要在边缘设备上充分发挥其全部潜力,需要软硬件的完美结合。正因如此,我们很高兴宣布与 Axelera AI 展开合作。

我们已与Axelera AI达成合作,推出升级版的导出集成方案,支持在Metis®人工智能处理单元(AIPU)上高效、高性能地部署Ultralytics YOLO 。

图1. Metis AI处理单元一瞥(来源

在本文中,我们将探讨如何轻松编译Ultralytics YOLO 以部署到 Metis 上。让我们开始吧!

边缘AI是计算机视觉的未来

随着计算机视觉应用的不断发展,对更快速、更高效处理的需求变得日益关键。传统的基于云的方法可能会引入延迟,依赖于稳定的网络连接,且可能无法满足许多智能视觉用例的实时需求。 

边缘人工智能通过让模型直接在本地设备上运行,从而在更接近数据源的位置进行处理,以此应对这些挑战。例如,以搜救行动中使用的视觉驱动无人机为例。 

这些系统需要实时分析视频流以detect 、障碍物或危险,且通常部署在互联网连接有限或完全断开的偏远地区。通过在无人机上直接运行计算机视觉模型,边缘人工智能无需依赖云基础设施,即可实现更快的决策和更可靠的性能。

这一转变正在为各行各业开辟新的可能性。无论是零售业中的实时物体检测、制造业中的自动化质量检测,还是机器人领域的感知技术,都因响应速度更快、可靠性更高而受益。 

边缘人工智能正迅速成为在现实环境中部署可扩展且响应迅速的计算机视觉系统的关键推动力。

探索Axelera AI的Metis AI处理单元 

在深入探讨新的导出集成功能之前,让我们先退一步,进一步了解Axelera AI的Metis AI处理单元,以及它们在实现高效边缘AI方面所发挥的作用。

Axelera AI 致力于开发专为加速边缘端 AI 推理而设计的专用硬件。其中关键组件是 Metis AIPU(即 AI 处理单元),这是一款专为在边缘设备上高效运行神经网络而设计的专用处理器。

与通用中央处理器(CPU)甚至图形处理器(GPU)不同,AIPU专为处理人工智能工作负载的特定计算模式而设计。这使其能够在保持低功耗的同时提供高性能,这对资源往往有限的边缘环境至关重要。

Axelera AI 的方法之所以尤为创新,在于其全栈式设计。Metis 基于数字内存计算(D-IMC)和 RISC-V 架构构建,既能提供高性能,又能满足边缘计算对能效的要求。Metis 的四个核心均可独立编程,这意味着每颗芯片可并行运行四个模型。除了硬件之外,Voyager SDK 还包含编译器和运行时环境,二者协同工作,可优化模型以供部署。 

这使开发人员能够更高效地将训练好的模型转化为可投入生产的推理模型。具体而言,Metis AIPU 使得在企业、零售、医疗保健和制造业环境中的边缘设备上,乃至农业和工业设备以及卫星上,直接运行先进的计算机视觉模型(如Ultralytics YOLO )成为可能。

导出Ultralytics YOLO 以供 Metis 部署

Ultralytics Python 为在各种计算机视觉任务中训练、评估和部署YOLO 提供了一个统一的接口。YOLO 通常使用PyTorch 进行开发和训练,该框架非常适合实验和模型开发。

然而,在将这些模型部署到专用边缘硬件上时,需要将其转换为针对目标设备进行优化的格式。此时Ultralytics Python 所支持的导出集成功能便派上了用场。

Ultralytics 导出选项,可根据部署目标将YOLO 转换为不同格式,例如ONNX、TensorRT 以及其他特定于硬件的后端。这些集成通过处理必要的优化和转换步骤,简化了为实际应用准备模型的过程。

在此Ultralytics 推出了与 Axelera AI 的更新版导出集成,支持YOLO 并部署到 Metis AIPU 上。

在导出过程中,模型会被编译并量化为一种专门针对Axelera硬件设计的优化表示形式。此过程将生成一个“.axm”格式的编译模型,以及部署和推理所需的元数据。

图2.Ultralytics YOLO 可在Metis AIPU上运行。(来源

该集成支持涵盖 Ultralytics YOLOv8Ultralytics YOLO11以及Ultralytics 模型,涵盖目标检测、姿势估计 实例分割、定向边界框(旋转框检测)检测和图像分类。虽然大多数任务可通过导出工作流直接支持,但 YOLO26 分割功能可通过模型库配合 Voyager SDK 实现。

这一扩展支持使开发者能够根据具体应用场景,灵活部署不同类型的视觉模型,涵盖从实时物体检测到场景理解、运动追踪以及复杂视觉数据分析等各个方面。

模型导出后PyTorch 推理阶段无需依赖PyTorch 即可进行部署和运行。取而代之的是,它们将通过 Voyager SDK 运行时进行执行,该运行时支持直接在边缘设备上构建端到端管道,以处理视频处理、实时检测和跟踪等任务。

Ultralytics YOLO 出入门指南

既然我们已经对新的导出集成有了更深入的了解,接下来让我们逐步了解如何将Ultralytics YOLO 导出为这种自定义格式,并在 Metis 硬件上进行边缘部署。

步骤 1:安装Ultralytics Python 软件包

首先,您需要安装Ultralytics Python 。它为YOLO 训练、评估和导出提供了简单且统一的接口。

您可以在终端或命令提示符中运行以下命令,通过 pip 安装它:

pip installultralytics

如果您在安装或导出过程中遇到任何Ultralytics 官方Ultralytics 《常见问题指南》是极佳的故障排除资源。

步骤 2:安装 Axelera 驱动程序和 Voyager SDK

若要在 Axelera 硬件上导出并运行模型,您还需要安装 Axelera 驱动程序和 Voyager SDK。此步骤可实现与 Metis AIPU 的通信,并提供所需的运行时和编译器工具。

以下步骤必须在具备 Axelera AI Metis 硬件访问权限的 Linux 环境中执行。请在系统上打开终端,或者如果您在兼容的本地环境中运行 Jupyter Notebook,请使用笔记本单元格,然后执行以下命令。

首先,请按以下步骤添加 Axelera 仓库密钥:

sudo sh -c "curl -fsSL https://software.axelera.ai/artifactory/api/security/keypair/axelera/public | gpg --dearmor -o /etc/apt/keyrings/axelera.gpg"

接下来,如下所示,将 Axelera 仓库添加到您的系统中:

sudo sh -c "echo 'deb [signed-by=/etc/apt/keyrings/axelera.gpg] https://software.axelera.ai/artifactory/axelera-apt-source/ ubuntu22 main' > /etc/apt/sources.list.d/axelera.list"

然后安装 Voyager SDK,并按以下步骤加载 Metis 驱动程序:

sudo apt update

sudo apt install -y metis-dkms=1.4.16

sudo modprobe metis

完成这些步骤后,您的系统即可将Ultralytics YOLO 导出并在 Axelera AI Metis 设备上运行。

步骤 3:导出Ultralytics YOLO

安装Ultralytics 后,您可以加载YOLO ,并将其导出为适用于 Metis 的编译包。此过程会将模型转换为一种针对 Axelera AI Metis 硬件部署进行优化的格式。

在下面的示例中,我们将使用一个预训练的 YOLO26n 模型,并将其导出到 Metis。导出的模型将保存在名为“/yolo26n_axelera_model”的目录中。 

fromultralytics YOLO

model =YOLO("yolo26n.pt")

model.export(format="axelera")  

步骤 4:使用导出的模型进行推理

导出模型后,您可以加载该模型,并对未见过的图像或视频流进行推理。这使得能够直接在 Axelera AI Metis 设备上执行实时计算机视觉任务。

例如,下面的代码片段演示了如何加载导出的模型,并在公开的 URL 上运行推理。

axelera_model =YOLO("yolo26n_axelera_model")

results = axelera_model("ultralytics", save=True)

在此情况下,模型会分析输入图像并检测物体,并将结果保存到“detect”目录中。

Ultralytics YOLO Axelera AI 硬件可在哪些领域发挥作用

接下来,让我们探讨一些常见的边缘AI应用场景,在这些场景中,Ultralytics YOLO 可以在Axelera AI硬件上进行部署。

Axelera AI 的 Metis AIPU 专为多种部署环境而设计,涵盖嵌入式系统、工业电脑、机器人以及边缘服务器等领域。凭借高性能且节能的推理能力,它们使各行业的计算机视觉应用能够直接在设备上运行。Voyager SDK 还包含一个管道构建器,供机器学习工程师和应用工程师将模型产品化,以满足边缘计算的需求。

零售业中在边缘端运行的智能视觉系统

在零售环境中,实时了解顾客行为能产生显著影响。 

借助在Axelera AI硬件上运行YOLO Ultralytics YOLO 商家可以实时监测客流量、统计人数并分析店内客流轨迹。由于所有运算均在设备端完成,无需依赖云端连接即可即时生成分析结果,这有助于团队更快地做出响应,同时确保数据隐私。

图3. 使用YOLO26在商场中检测和计数人员

利用边缘人工智能进行公用事业和基础设施检测

电力线路等大型基础设施的维护工作既复杂又耗费大量资源。这些网络往往覆盖范围广阔,导致检修工作耗时、成本高昂且可能存在安全隐患。如果故障或早期磨损迹象未能及时发现,可能会演变为停电、设备损坏或安全风险。

无人机正越来越多地被用于提高检查效率。它们能够覆盖长距离,进入难以到达的区域,并拍摄关键资产的高分辨率图像。

将无人机与边缘人工智能相结合,进一步优化了这些工作流程。在Axelera AI硬件上运行Ultralytics YOLO 可在检测过程中进行实时分析,现场识别故障、分类组件并检测异常。这减少了对人工审查的需求,并支持更快、更可靠的基础设施监测。

图4. 使用YOLO26检测输电线的各个部分

利用实时视觉AI洞察赋能机器人技术

对于机器人技术而言,速度和响应能力至关重要。无论是穿梭于仓库之中,还是在动态的工业环境中作业,机器人都需要即时解读周围环境。 

在Axelera AI硬件上运行YOLO 使机器人能够实时解读周围环境,包括障碍物检测、人员追踪以及物体识别。这使得系统能够更安全地移动、适应动态环境,并在无需依赖持续云连接的情况下实现更高程度的自主运行。

在 Metis AIPU 上运行Ultralytics YOLO 的主要优势

以下是利用新集成方案在Axelera AI的Metis硬件上Ultralytics YOLO 的一些主要优势:

  • 与Ultralytics 无缝集成:将 YOLO 导出 以供 Metis 部署,这一操作自然融入Ultralytics Python 中,从而简化了从训练到推理的过渡。
  • 支持多种计算机视觉任务:您可以 部署用于 物体检测、姿势估计 、分割、分类等任务的 模型,涵盖YOLOv8、YOLO11 和 YOLO26。
  • 并行运行模型:Metis AIPU 配备四个可独立编程的核心,能够并行运行四个独立的模型,以满足您的需求。
  • 可扩展至各类边缘AI应用:从 零售分析、工业检测到机器人技术和智能基础设施,该集成方案支持广泛的实际应用场景。

主要要点

Ultralytics YOLO 模型与 Axelera AI 的 Metis AIPU 相结合,使得将高性能计算机视觉引入边缘设备变得更加容易。通过简化部署并针对专用硬件优化模型,这种集成有助于弥合开发与实际应用之间的鸿沟。

随着边缘 AI 的持续发展,拥有高效、可扩展的部署方案将是构建响应迅速、可靠系统的关键。此次合作是迈向使先进视觉 AI 在各行业中更易于获取的重要一步。

想了解更多关于人工智能的信息吗?请浏览我们的 GitHub 仓库,与 我们的社区 建立联系,并查看 我们的许可选项,以快速启动您的计算机视觉项目。了解 人工智能在零售业计算机视觉在医疗保健领域 等创新技术如何塑造未来。

让我们携手共创人工智能的未来!

开启您的机器学习未来之旅