术语表

CPU

探索 CPU 在人工智能和机器学习中的重要作用。了解 CPU 在数据准备、推理中的应用,以及与 GPU/TPU 的比较。

中央处理器(CPU)是计算机的主要部件,在计算机设备内执行指令并进行大部分处理。中央处理器通常被称为计算机的 "大脑",其主要作用是执行组成计算机程序的指令序列。在机器学习(ML)人工智能(AI)领域,中央处理器是管理整个系统、处理数据准备和执行不适合专用硬件的任务的基础元件。虽然在模型训练过程中,CPU 可能不会执行大量繁重的计算,但对于完整的人工智能工作流程来说,CPU 的作用是不可或缺的。

CPU 与 GPU 和 TPU

CPU、GPUTPU之间的主要区别在于它们的架构和预期用途:

  • 中央处理器:通用处理器,专为低延迟执行连续任务而优化。它有几个功能强大的内核,是管理操作系统、控制流和各种计算的理想选择。主要制造商包括英特尔AMD
  • 图形处理器:GPU最初是为图形设计的,现在由于其架构而被广泛用于人工智能。它们拥有数千个较小的内核,经过优化,可并行处理大型数据块,如深度学习中使用的矩阵。这种并行性大大加快了Ultralytics YOLO11 等模型的训练速度。
  • TPU: 谷歌的定制硬件是一种专用集成电路(ASIC),专门用于加速神经网络中使用的张量计算。它针对云平台上的TensorFlowPyTorch等框架进行了高度优化。

即使在严重依赖 GPU 或 TPU训练模型的系统中,CPU 也要管理整个系统,为加速器准备数据,并处理工作流程中未针对并行计算进行优化的部分。了解这些权衡对于高效部署模型至关重要。

使用 CPU 的 AI/ML 实际应用案例

虽然专用硬件在大规模训练中表现出色,但 CPU 对于许多人工智能任务仍然至关重要,尤其是在具有特定限制的环境中。

  1. 自然语言处理 (NLP) 预处理:在将文本数据输入模型进行训练或推理之前,必须对其进行预处理。标记化(将文本分割成更小的单元)等任务是NLP 的基础。在将处理后的数据发送到 GPU 之前,Hugging Face 的 Tokenizers等库通常会在 CPU 上高效地执行这些连续操作。
  2. 边缘设备推理:许多边缘人工智能应用在功率和计算资源有限的设备上部署 ML 模型,如Raspberry Pi或基于ARM 架构的设备。在这些情况下,推理通常直接在设备的 CPU 上运行。TensorFlow LiteOpenVINO 工具包等经过优化的库可用于实现基本对象检测或关键词定位等任务的可接受性能。通过Ultralytics HUB等平台和Docker 等容器化工具,可以简化对这些部署的管理。

要设计和优化端到端人工智能系统,从处理数据收集到实现跨不同硬件平台的高效部署,了解 CPU 的能力和局限性至关重要。这是成功的MLOps战略的一个关键方面。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板