探索边缘 AI,了解如何在本地硬件上部署 Ultralytics YOLO26,以实现实时推理、降低延迟并增强边缘数据隐私。
边缘AI是指将人工智能 (AI)算法和模型直接部署到本地硬件设备上,例如智能手机、物联网传感器、无人机和联网汽车,而不是依赖集中式云计算中心。这种分布式方法允许数据在其生成源头进行处理,显著降低了信息往返远程服务器所涉及的延迟。通过在本地执行机器学习 (ML)任务,设备可以做出即时决策,在没有互联网连接的情况下可靠运行,并通过将敏感信息保留在设备本身来增强数据隐私。
边缘AI的核心是在嵌入式系统上运行推理引擎。由于边缘设备通常与云服务器相比,电池续航和计算能力有限,因此AI模型必须高效。开发者常采用模型量化或模型剪枝等技术来压缩大型神经网络,同时不显著牺牲精度。
专用硬件加速器常用于高效处理这些工作负载。例如,用于机器人技术的NVIDIA Jetson平台和用于低功耗推理的Google Coral Edge TPU。软件框架也发挥着关键作用;TensorRT和TFLite等工具专门针对这些受限环境优化模型,确保快速实时推理。
虽然这些术语经常互换使用,但区分它们是有帮助的:
边缘AI通过在关键场景中实现自主决策,正在改变各行各业:
将模型部署到边缘通常涉及在高计算环境中训练模型,然后将其导出为与边缘设备兼容的格式,例如ONNX或OpenVINO。Ultralytics Platform简化了这一工作流程,允许用户训练并自动导出适用于各种边缘目标的模型。
以下示例演示了如何将轻量级YOLO26模型(专门为效率而设计)导出为适用于移动和边缘部署的格式。
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
高级边缘部署常利用容器化技术,如Docker,来打包应用程序,确保它们在从Raspberry Pi设备到工业网关等不同设备架构上一致运行。

开启您的机器学习未来之旅