了解边缘 AI 如何在设备上实现实时、安全和高效的 AI 处理,从而改变医疗保健和自动驾驶汽车等行业。
边缘人工智能指将人工智能(AI)算法和模型直接部署在本地硬件设备(如智能手机、物联网传感器、无人机和联网车辆)上,而非依赖集中式云计算中心。这种去中心化方法使数据能在生成源头进行处理,大幅减少信息往返远程服务器时的延迟。 通过本地执行机器学习(ML)任务,设备能够即时决策、在无网络连接时仍可靠运行,并通过将敏感信息保留在设备本身来增强数据隐私性。
边缘人工智能的核心在于在嵌入式系统上运行推理引擎。由于边缘设备相较于云服务器通常具有有限的电池续航和计算能力,人工智能模型必须具备高度效率。开发者常采用模型量化或 模型剪枝等技术,在不显著牺牲准确性的前提下压缩大型神经网络。
专用硬件加速器常被用于高效处理这些工作负载。典型案例包括: 机器人NVIDIA 以及面向低功耗推理Google EdgeTPU。软件框架同样发挥着关键作用,诸如 TensorRT 和 TFLite 专门针对这些资源受限环境优化模型,确保快速的实时推理。
虽然这两个术语常被互换使用,但区分它们是有益的:
边缘人工智能正通过在关键场景中实现自主决策能力,推动各行业转型:
将模型部署到边缘通常涉及在高性能计算环境中训练模型,然后将其导出为与边缘设备兼容的格式,例如 ONNXOpenVINO。 Ultralytics 简化了该工作流,支持用户为各类边缘目标 同时训练并自动导出模型。
以下示例演示了如何将轻量级YOLO26模型(专为效率而设计)导出为适合移动端和边缘部署的格式。
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
先进的边缘部署通常采用 容器化技术(如Docker)来封装应用程序, 确保其在不同设备架构上运行一致, 从树莓派设备到工业网关皆可兼容。