Một đơn vị xử lý trung tâm ( CPU ), thường được gọi đơn giản là bộ xử lý, là thành phần cốt lõi của máy tính thực hiện các lệnh và thực hiện các phép tính chính cần thiết để hệ thống hoạt động. Nó xử lý các phép tính số học, logic, điều khiển và đầu vào/đầu ra (I/O) cơ bản được chỉ định bởi các lệnh phần mềm. Trong phạm vi Trí tuệ nhân tạo (AI) và Học máy (ML) , trong khi phần cứng chuyên dụng như GPU và TPU vượt trội trong xử lý song song cho các tác vụ như đào tạo các mô hình học sâu , CPU vẫn là thành phần thiết yếu và linh hoạt điều phối toàn bộ quy trình làm việc.
Vai trò trong AI và Học máy
CPU được thiết kế như bộ xử lý đa năng, xuất sắc trong việc thực hiện chuỗi lệnh nhanh chóng và xử lý nhiều tác vụ tính toán khác nhau. Các đặc điểm chính ảnh hưởng đến hiệu suất bao gồm tốc độ xung nhịp (số lượng hoạt động mỗi giây) và số lõi (cho phép thực hiện song song các tác vụ). Trong khi CPU hiện đại từ các nhà sản xuất như Intel và AMD có nhiều lõi, chúng không sở hữu kiến trúc song song lớn như GPU, khiến chúng ít phù hợp hơn với phép nhân ma trận quy mô lớn thường thấy trong đào tạo học sâu.
Tuy nhiên, CPU là bộ phận không thể thiếu trong quy trình AI/ML cho một số chức năng quan trọng:
- Chuẩn bị dữ liệu: Các tác vụ như tải tập dữ liệu , làm sạch dữ liệu , chuyển đổi và tăng cường dữ liệu thường chạy hiệu quả trên CPU. Các thư viện như Pandas và một số phần của Scikit-learn phụ thuộc rất nhiều vào CPU xử lý. Chuẩn bị dữ liệu cho các dự án thị giác máy tính là một CPU -bước chuyên sâu.
- Điều phối quy trình làm việc: CPU quản lý luồng thực thi chung của các đường ống ML, phối hợp các tác vụ giữa các thành phần phần cứng khác nhau (như GPU) và các mô-đun phần mềm.
- Các mô hình ML truyền thống: Nhiều thuật toán ML cổ điển, chẳng hạn như Máy vectơ hỗ trợ (SVM) và Rừng ngẫu nhiên , thường được đào tạo và chạy hiệu quả trên CPU.
- Suy luận: Trong khi GPU cung cấp thông lượng cao cho suy luận, CPU thường được sử dụng cho suy luận thời gian thực , đặc biệt là trong môi trường có tài nguyên hạn chế ( Edge AI ) hoặc khi độ trễ cho các dự đoán đơn lẻ được ưu tiên hơn thông lượng hàng loạt. Các khuôn khổ như ONNX Runtime và bộ công cụ OpenVINO của Intel cung cấp khả năng suy luận được tối ưu hóa trên CPU. Ultralytics các mô hình có thể được xuất sang các định dạng như ONNX cho CPU triển khai, được nêu chi tiết trong tài liệu xuất mô hình .
- Hoạt động Nhập/Xuất (I/O): CPU xử lý việc đọc và ghi dữ liệu từ bộ lưu trữ và truyền thông mạng, cần thiết để tải mô hình và dữ liệu.
CPU so với GPU Và TPU
Sự khác biệt chính giữa CPU, GPU và TPU nằm ở kiến trúc và mục đích sử dụng của chúng:
- CPU : Bộ xử lý đa năng được tối ưu hóa để thực hiện các tác vụ tuần tự với độ trễ thấp. Nó có một vài lõi mạnh mẽ. Lý tưởng cho luồng điều khiển, chức năng hệ điều hành và các phép tính đa dạng.
- GPU : Ban đầu dùng cho đồ họa, hiện được sử dụng rộng rãi cho AI. Có hàng nghìn lõi nhỏ hơn được tối ưu hóa để xử lý song song các khối dữ liệu lớn (như ma trận trong học sâu ). Xem GPU NVIDIA để biết ví dụ. Tăng tốc đáng kể quá trình đào tạo cho các mô hình như Ultralytics YOLO .
- TPU : Phần cứng tùy chỉnh của Google , được thiết kế riêng để tăng tốc tensor tính toán được sử dụng trong mạng nơ-ron, đặc biệt là trong khuôn khổ TensorFlow . Được tối ưu hóa để có thông lượng cao và hiệu quả trên khối lượng công việc ML cụ thể.
Ngay cả trong các hệ thống phụ thuộc nhiều vào GPU hoặc TPU để đào tạo các mô hình phức tạp như YOLOv10 hoặc YOLO11 , CPU quản lý toàn bộ hệ thống, chuẩn bị dữ liệu và xử lý các phần của quy trình làm việc không phù hợp với bộ tăng tốc. Việc lựa chọn phần cứng phù hợp liên quan đến việc hiểu những sự đánh đổi này để triển khai mô hình hiệu quả.
Ví dụ về AI/ML trong thế giới thực sử dụng CPU
- Tiền xử lý ngôn ngữ tự nhiên (NLP): Các tác vụ như mã hóa, trong đó văn bản được chia thành các đơn vị nhỏ hơn (từ hoặc từ phụ), là cơ bản trong NLP . Các thư viện như Tokenizers của Hugging Face thường thực hiện các hoạt động này một cách hiệu quả trên CPU trước khi dữ liệu được truyền đến một GPU để suy luận hoặc đào tạo mô hình.
- Suy luận thiết bị biên: Nhiều ứng dụng AI biên triển khai các mô hình ML trên các thiết bị có nguồn điện và tài nguyên tính toán hạn chế, như Raspberry Pi hoặc các thiết bị dựa trên kiến trúc ARM . Trong các trường hợp này, suy luận thường chạy trực tiếp trên thiết bị CPU , có thể sử dụng các thư viện được tối ưu hóa như TensorFlow Lite hoặc OpenVINO để đạt được hiệu suất chấp nhận được cho các tác vụ như phát hiện đối tượng cơ bản hoặc phát hiện từ khóa. Quản lý các triển khai này có thể được tạo điều kiện thông qua các nền tảng như Ultralytics HUB .
Hiểu biết về CPU Khả năng và hạn chế của 's rất quan trọng đối với việc thiết kế và tối ưu hóa các hệ thống AI đầu cuối, từ xử lý dữ liệu ( xem hướng dẫn thu thập dữ liệu ) đến triển khai hiệu quả trên nhiều nền tảng phần cứng khác nhau.