敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024
词汇表

CPU

探索 CPU 在 AI 和机器学习中的重要作用。了解它在数据准备、推理中的应用,以及它与 GPU/TPU 的比较。

中央处理器 (CPU) 是计算机的主要组件,它执行指令并在计算设备内部执行大部分处理。通常被称为计算机的“大脑”,其主要作用是执行构成计算机程序的指令序列。在机器学习 (ML)人工智能 (AI)的背景下,CPU 是管理整个系统、处理数据准备以及执行不适合专用硬件的任务的基础元素。虽然它可能不会在模型训练期间执行大量繁重的计算,但其作用对于完整的 AI 工作流程是不可或缺的。

CPU 与 GPU 和 TPU

CPU、GPUTPU 之间的主要区别在于它们的架构和预期用途:

  • CPU: 一种通用处理器,针对顺序任务的低延迟执行进行了优化。 它具有少量强大的内核,非常适合管理操作系统、控制流和各种计算。 主要制造商包括 IntelAMD
  • GPU: GPU 最初是为图形设计的,但由于其架构,现在被广泛用于 AI。它们具有数千个针对大型数据块的并行处理进行优化的小内核,例如 深度学习 中使用的矩阵。这种并行性显着加速了 Ultralytics YOLO11 等模型的训练。
  • TPU: Google 的定制硬件,一种专用集成电路 (ASIC),专门用于加速神经网络中使用的张量计算。它针对 TensorFlowPyTorch 等框架在云平台上进行了高度优化。

即使在严重依赖 GPU 或 TPU 进行模型训练的系统中,CPU 也会管理整个系统,为加速器准备数据,并处理未针对并行计算优化的工作流程部分。了解这些权衡对于高效的模型部署至关重要。

使用 CPU 的真实世界 AI/ML 示例

虽然专用硬件擅长大规模训练,但 CPU 对于许多 AI 任务仍然至关重要,尤其是在具有特定约束的环境中。

  1. 自然语言处理 (NLP) 预处理: 在将文本数据馈送到模型以进行训练或推理之前,必须对其进行预处理。诸如token化(将文本分解为更小的单元)之类的任务是NLP的基础。诸如Hugging Face的Tokenizers之类的库通常在CPU上有效地执行这些顺序操作,然后再将处理后的数据发送到GPU。
  2. 边缘设备推理: 许多 边缘 AI 应用会将 ML 模型部署在功率和计算资源有限的设备上,例如 Raspberry Pi 或基于 ARM 架构 的设备。在这些情况下,推理 通常直接在设备的 CPU 上运行。诸如 TensorFlow LiteOpenVINO 工具包 等优化库被用于在基本目标检测或关键词识别等任务中实现可接受的性能。通过 Ultralytics HUB 等平台和 Docker 等容器化工具,可以简化这些部署的管理。

了解 CPU 的功能和局限性对于设计和优化端到端 AI 系统至关重要,从处理数据收集到在各种硬件平台上实现高效部署。这是成功MLOps战略的关键方面。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板