深圳尤洛视觉
深圳
立即加入
词汇表

GPU(图形处理器)

了解 GPU 如何通过加速深度学习、优化工作流程和实现现实世界的应用来彻底改变 AI 和机器学习。

图形处理单元 (GPU) 是一种专门的电子电路,最初旨在加速创建和渲染用于显示的图像、视频和动画。然而,其高度并行的架构使其在同时处理大量数据块方面非常高效。这种能力使 GPU 成为现代人工智能 (AI)机器学习 (ML)的主力军,大大加快了训练复杂模型所需的时间,并能够开发更复杂的 AI 解决方案。

GPU 在 AI 和机器学习中的作用

GPU 在 AI 中的强大之处源于它能够一次执行数千次计算,这种概念被称为 并行处理深度学习 模型(例如 卷积神经网络 (CNN))建立在可以分解为数千个较小的独立任务的数学运算之上。开创性的研究,例如关于 AlexNet 架构 的论文,证明了在 GPU 上训练 CNN 的有效性。

GPU 拥有数千个内核,可以并行执行这些任务,从而大大缩短了模型训练的计算时间,从几周或几个月缩短到几天或几小时。这种加速对于迭代模型、试验不同的架构以及执行广泛的超参数调整至关重要。这些处理器的性能通常以FLOPS(每秒浮点运算次数)来衡量。

与CPU和TPU的主要区别

虽然 GPU、CPU张量处理单元 (TPU)都是处理器类型,但它们针对不同类型的任务进行了优化:

  • CPU(中央处理器): 专为通用计算而设计,擅长顺序任务和管理系统操作。 CPU 具有针对低延迟优化的少量强大内核。 您可以阅读详细的 CPU 与 GPU 的比较
  • GPU(图形处理器): 针对具有数千个更简单内核的并行操作进行了优化。非常适合可以分解并同时处理的任务,例如渲染图形和训练深度学习模型。来自 NVIDIAAMD 等制造商的 GPU 是 高性能计算 (HPC) 的主要组成部分。
  • TPU(张量处理单元):Google 创建的定制专用集成电路 (ASIC),用于加速机器学习工作负载。它们针对神经网络 (NN)中常见的大规模矩阵计算进行了高度优化,尤其是在 TensorFlow 等框架中。

GPU 在并行任务中提供了强大的高性能和广泛应用灵活性的平衡,使其成为许多 AI 开发人员的首选。

实际应用

GPU加速的影响在众多AI应用中显而易见。以下是两个突出的例子:

  1. 自动驾驶汽车:自动驾驶汽车依赖于一套传感器来感知其环境。GPU 对于实时处理来自摄像头和 LiDAR 的大量数据流至关重要。它们为目标检测模型(如 Ultralytics YOLO11)提供支持,以识别行人、其他车辆和道路标志,从而使车辆能够立即做出关键的驾驶决策。这是现代汽车解决方案中的 AI 的关键组成部分。
  2. 医学图像分析: 在医疗保健领域,GPU 加速了对复杂医学扫描图像(如 MRI 和 CT)的分析。正如Nature Reviews Clinical Oncology等期刊详细介绍的那样,人工智能在放射学中的作用日益重要。在 GPU 上运行的模型可以执行诸如图像分割之类的任务,以高精度描绘肿瘤,从而帮助放射科医生做出更快、更准确的诊断。这项技术是现代医疗保健领域人工智能的基石,并用于检测医学图像中的肿瘤等应用。

生态系统和使用

GPU在人工智能领域的广泛应用得益于成熟而强大的生态系统。NVIDIA的CUDA平台是一种主要的并行计算框架和编程模型,使开发人员能够释放NVIDIA GPU的强大功能,用于通用计算。

诸如 PyTorchTensorFlow 等深度学习框架经过大量优化,可以利用 GPU 加速,从而可以直接在此硬件上训练模型。使用诸如 Docker容器化工具可以简化开发环境的设置。有关指导,您可以参考 Ultralytics Docker 快速入门指南。有效的模型部署通常涉及使用 TensorRTOpenVINO 等工具进行进一步优化,以最大限度地提高目标硬件上的实时推理速度。您可以探索各种旨在有效利用 GPU 功能的 Ultralytics 解决方案。使用诸如 Ultralytics HUB 等平台可以简化从数据集到部署的整个工作流程的管理。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板