了解 GPU 如何通过加速深度学习、优化工作流程和实现现实世界的应用来彻底改变 AI 和机器学习。
图形处理器GPU)是一种专用电子电路,最初设计用于加速计算机图形和图像的创建和渲染。 渲染计算机图形和图像。虽然它 起源于游戏和视频渲染,但由于其独特的架构,GPU 已发展成为现代计算的关键组件。 其独特的架构。与按顺序处理任务的标准处理器不同,GPU 处理器由数千个更小、GPU 高效的GPU 组成。 较小的高效内核,能够同时处理大量数据块。这种并行架构 使 GPU 在以下领域变得不可或缺 人工智能(AI)和 机器学习(ML)领域不可或缺。 大幅缩短了训练复杂算法所需的时间。
GPU 的核心优势在于并行计算。 现代人工智能工作负载,特别是那些涉及 深度学习 (DL)和 神经网络(NN)的工作负载,在很大程度上依赖于矩阵 计算密集但重复性强的矩阵运算。GPU 可以将这些任务分配给数千个GPU ,同时执行GPU 内核,同时执行这些任务。
AlexNet 架构的成功突出了这一能力。 AlexNet 架构的成功突出了这一能力。 卷积神经网络 (CNN) 的速度明显快于传统处理器。如今,这种加速度使研究人员能够在数小时而不是数周内完成 模型训练只需数小时而不是数周。这些设备的计算 这些设备的计算吞吐量通常以 FLOPS(每秒浮点运算),这是高性能计算的一个标准指标。 这是高性能计算的标准指标。
要了解 GPU 在硬件领域的地位,最好将其与其他常见处理器进行比较:
GPU 加速技术的应用推动了各行各业的创新:
使用时 ultralytics 利用GPU 可以大大加快训练过程。该
库支持硬件自动检测,但用户也可以手动指定设备,以确保利用GPU
利用。
下面的示例演示了如何在第一个可用的GPU 上训练YOLO11 模型:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
除训练外,GPU 还在以下方面发挥着重要作用 模型部署。对于需要 对于需要实时推理的应用,训练好的模型通常需要 等工具进行优化。 NVIDIA TensorRT或 ONNX Runtime 等工具对训练好的模型进行优化。这些工具可以重组神经网络,最大限度地利用 这些工具对神经网络进行了重组,以最大限度地GPU 的特定架构,从而减少延迟。此外,随着 此外,边缘人工智能的兴起也促进了紧凑型高能效 GPU 的发展、 此外,边缘人工智能的兴起也推动了紧凑型、高能效 GPU 的发展,这些 GPU 能够直接在本地运行复杂的 计算机视觉(CV)任务,从而减少了对云连接的依赖。 设备上直接运行复杂的计算机视觉(CV)任务,从而减少了对云连接的依赖。