Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

GPU (Bộ xử lý đồ họa)

Khám phá cách GPU cách mạng hóa AI và máy học bằng cách tăng tốc học sâu, tối ưu hóa quy trình làm việc và cho phép các ứng dụng thực tế.

Một đơn vị xử lý đồ họa ( GPU ) là một mạch điện tử chuyên dụng ban đầu được thiết kế để tăng tốc quá trình tạo và kết xuất đồ họa và hình ảnh máy tính . Mặc dù nguồn gốc của nó bắt nguồn từ trò chơi điện tử và kết xuất video, GPU đã phát triển thành một thành phần quan trọng cho máy tính hiện đại nhờ kiến trúc độc đáo của nó. Không giống như bộ xử lý tiêu chuẩn xử lý các tác vụ tuần tự, GPU bao gồm hàng ngàn lõi nhỏ hơn, hiệu quả hơn, có khả năng xử lý đồng thời các khối dữ liệu khổng lồ. Kiến trúc song song này đã khiến GPU trở nên không thể thiếu trong lĩnh vực Trí tuệ Nhân tạo (AI)Học máy (ML) , giúp giảm đáng kể thời gian cần thiết để đào tạo các thuật toán phức tạp.

Sức mạnh của tính toán song song

Lợi thế cốt lõi của một GPU nằm ở tính toán song song . Khối lượng công việc AI hiện đại, đặc biệt là những khối lượng công việc liên quan đến Học sâu (DL)Mạng nơ-ron (NN) , phụ thuộc rất nhiều vào các phép toán ma trận vốn đòi hỏi nhiều tính toán nhưng lại lặp đi lặp lại. GPU có thể chia các tác vụ này thành hàng nghìn lõi và thực hiện tất cả cùng một lúc.

Khả năng này nổi bật nhờ thành công của kiến trúc AlexNet , chứng minh rằng GPU có thể huấn luyện Mạng Nơ-ron Tích chập (CNN) nhanh hơn đáng kể so với bộ xử lý truyền thống. Ngày nay, tốc độ này cho phép các nhà nghiên cứu thực hiện huấn luyện mô hình chỉ trong vài giờ thay vì vài tuần. Thông lượng tính toán của các thiết bị này thường được đo bằng FLOPS (Phép tính dấu phẩy động trên giây), một thước đo tiêu chuẩn cho điện toán hiệu năng cao.

Sự khác biệt về phần cứng: GPU so với CPU so với TPU

Để hiểu vị trí của GPU trong bối cảnh phần cứng, chúng ta nên so sánh chúng với các bộ xử lý phổ biến khác:

  • CPU (Bộ xử lý trung tâm) : CPU là "bộ não" đa năng của máy tính, được thiết kế với ít lõi hơn nhưng mạnh hơn để xử lý các tác vụ tuần tự và logic phức tạp. Nó lý tưởng để chạy hệ điều hành nhưng kém hiệu quả hơn đối với tính song song khổng lồ mà AI yêu cầu.
  • GPU (Bộ xử lý đồ họa) : Được tối ưu hóa cho thông lượng, GPU vượt trội trong các tác vụ song song. Các nhà sản xuất hàng đầu như NVIDIAAMD cung cấp các hệ sinh thái mạnh mẽ, chẳng hạn như CUDA và ROCm, cho phép các nhà phát triển khai thác sức mạnh này trực tiếp cho các ứng dụng AI.
  • TPU (Bộ xử lý Tensor ) : A TPU là một mạch tích hợp ứng dụng chuyên biệt (ASIC) được Google Cloud phát triển đặc biệt để tăng tốc khối lượng công việc học máy. Mặc dù TPU có hiệu suất cao trong tensor các hoạt động trong các khuôn khổ như TensorFlow , GPU vẫn linh hoạt hơn cho nhiều tác vụ hơn.

Ứng dụng thực tế trong AI

Việc thực hiện GPU sự tăng tốc đã thúc đẩy sự đổi mới trong nhiều ngành công nghiệp khác nhau:

  • Lái xe tự động : Xe tự lái cần xử lý dữ liệu theo thời gian thực từ camera, radar và cảm biến LiDAR . GPU hỗ trợ các mô hình Phát hiện Đối tượng , có khả năng nhận dạng người đi bộ, phương tiện khác và biển báo giao thông ngay lập tức, một nền tảng của AI trong Ô tô .
  • Chụp ảnh y tế : Trong chăm sóc sức khỏe, GPU giúp tăng tốc độ phân tích các hình ảnh quét độ phân giải cao như MRI và CT. Chúng cho phép các mô hình Phân đoạn hình ảnh phân định chính xác khối u hoặc cơ quan, hỗ trợ các bác sĩ X quang đưa ra chẩn đoán nhanh hơn và chính xác hơn. Công nghệ này rất quan trọng đối với sự phát triển của AI trong chăm sóc sức khỏe .

Tận dụng GPU để đào tạo mô hình

Khi sử dụng ultralytics gói, sử dụng một GPU có thể tăng tốc đáng kể quá trình đào tạo. Thư viện hỗ trợ phát hiện phần cứng tự động, nhưng người dùng cũng có thể chỉ định thiết bị theo cách thủ công để đảm bảo GPU được sử dụng.

Ví dụ sau đây minh họa cách đào tạo một YOLO11 mô hình đầu tiên có sẵn GPU :

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

Tối ưu hóa và triển khai Edge

Ngoài việc đào tạo, GPU đóng vai trò quan trọng trong việc triển khai mô hình . Đối với các ứng dụng yêu cầu suy luận thời gian thực , các mô hình đã đào tạo thường được tối ưu hóa bằng các công cụ như NVIDIA TensorRT hoặc ONNX Runtime . Các công cụ này tái cấu trúc mạng nơ-ron để tối đa hóa kiến trúc cụ thể của GPU , giảm độ trễ. Hơn nữa, sự phát triển của Edge AI đã dẫn đến sự phát triển của các GPU nhỏ gọn, tiết kiệm điện năng, có khả năng chạy các tác vụ Thị giác Máy tính (CV) phức tạp trực tiếp trên các thiết bị cục bộ, giảm sự phụ thuộc vào kết nối đám mây.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay