Khám phá cách GPU cách mạng hóa AI và máy học bằng cách tăng tốc học sâu, tối ưu hóa quy trình làm việc và cho phép các ứng dụng thực tế.
Một đơn vị xử lý đồ họa ( GPU ) là một mạch điện tử chuyên dụng ban đầu được thiết kế để tăng tốc quá trình tạo và kết xuất đồ họa và hình ảnh máy tính . Mặc dù nguồn gốc của nó bắt nguồn từ trò chơi điện tử và kết xuất video, GPU đã phát triển thành một thành phần quan trọng cho máy tính hiện đại nhờ kiến trúc độc đáo của nó. Không giống như bộ xử lý tiêu chuẩn xử lý các tác vụ tuần tự, GPU bao gồm hàng ngàn lõi nhỏ hơn, hiệu quả hơn, có khả năng xử lý đồng thời các khối dữ liệu khổng lồ. Kiến trúc song song này đã khiến GPU trở nên không thể thiếu trong lĩnh vực Trí tuệ Nhân tạo (AI) và Học máy (ML) , giúp giảm đáng kể thời gian cần thiết để đào tạo các thuật toán phức tạp.
Lợi thế cốt lõi của một GPU nằm ở tính toán song song . Khối lượng công việc AI hiện đại, đặc biệt là những khối lượng công việc liên quan đến Học sâu (DL) và Mạng nơ-ron (NN) , phụ thuộc rất nhiều vào các phép toán ma trận vốn đòi hỏi nhiều tính toán nhưng lại lặp đi lặp lại. GPU có thể chia các tác vụ này thành hàng nghìn lõi và thực hiện tất cả cùng một lúc.
Khả năng này nổi bật nhờ thành công của kiến trúc AlexNet , chứng minh rằng GPU có thể huấn luyện Mạng Nơ-ron Tích chập (CNN) nhanh hơn đáng kể so với bộ xử lý truyền thống. Ngày nay, tốc độ này cho phép các nhà nghiên cứu thực hiện huấn luyện mô hình chỉ trong vài giờ thay vì vài tuần. Thông lượng tính toán của các thiết bị này thường được đo bằng FLOPS (Phép tính dấu phẩy động trên giây), một thước đo tiêu chuẩn cho điện toán hiệu năng cao.
Để hiểu vị trí của GPU trong bối cảnh phần cứng, chúng ta nên so sánh chúng với các bộ xử lý phổ biến khác:
Việc thực hiện GPU sự tăng tốc đã thúc đẩy sự đổi mới trong nhiều ngành công nghiệp khác nhau:
Khi sử dụng ultralytics gói, sử dụng một GPU có thể tăng tốc đáng kể quá trình đào tạo. Thư viện hỗ trợ phát hiện phần cứng tự động, nhưng người dùng cũng có thể chỉ định thiết bị theo cách thủ công để đảm bảo GPU được sử dụng.
Ví dụ sau đây minh họa cách đào tạo một YOLO11 mô hình đầu tiên có sẵn GPU :
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
Ngoài việc đào tạo, GPU đóng vai trò quan trọng trong việc triển khai mô hình . Đối với các ứng dụng yêu cầu suy luận thời gian thực , các mô hình đã đào tạo thường được tối ưu hóa bằng các công cụ như NVIDIA TensorRT hoặc ONNX Runtime . Các công cụ này tái cấu trúc mạng nơ-ron để tối đa hóa kiến trúc cụ thể của GPU , giảm độ trễ. Hơn nữa, sự phát triển của Edge AI đã dẫn đến sự phát triển của các GPU nhỏ gọn, tiết kiệm điện năng, có khả năng chạy các tác vụ Thị giác Máy tính (CV) phức tạp trực tiếp trên các thiết bị cục bộ, giảm sự phụ thuộc vào kết nối đám mây.