探索 CPU 在 AI 中的关键作用。了解如何优化数据预处理、后处理,以及如何在边缘设备上运行 Ultralytics YOLO26 推理。
中央处理器(CPU)是计算机的核心组件,充当其“大脑”,负责解释和执行来自硬件和软件的指令。在人工智能(AI)领域,CPU在数据处理、系统编排和执行推理方面发挥着基础性作用,尤其是在功耗效率至关重要的边缘设备上。尽管GPU等专用硬件通常与深度学习模型训练的繁重任务相关联,但CPU对于整个机器学习(ML)流程仍然不可或缺。
尽管GPU因其在训练过程中的大规模并行性而备受推崇,但CPU却是计算机视觉(CV)生命周期中许多关键阶段的主力。它的架构通常基于x86(Intel、AMD)或ARM设计,针对顺序处理和复杂逻辑控制进行了优化。
理解硬件环境对优化机器学习运维(MLOps)至关重要。这些处理器在架构和理想应用场景方面存在显著差异。
对于成本、可用性和能耗比对大规模原始吞吐量的需求更重要的应用,CPU 常常是首选硬件。
开发人员常在CPU上测试模型,以验证其与无服务器计算环境或低功耗设备的兼容性。Ultralytics 可让您轻松定位CPU,确保应用程序无处不在地运行。
以下示例演示了如何加载轻量级模型,并在CPU进行推理:
from ultralytics import YOLO
# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")
# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)
为了进一步提高 Intel CPU 上的性能,开发者可以将模型导出为 OpenVINO 格式,该格式专门针对 x86 架构优化神经网络 结构。对于数据集管理和这些部署的编排, Ultralytics Platform 等工具简化了从标注到边缘 执行的工作流程。

开启您的机器学习未来之旅