Bằng cách nhấp vào “Chấp nhận tất cả cookie”, bạn đồng ý lưu trữ cookie trên thiết bị của mình để cải thiện khả năng điều hướng trang web, phân tích việc sử dụng trang web và hỗ trợ các nỗ lực tiếp thị của chúng tôi. Thông tin thêm
Cài đặt Cookie
Bằng cách nhấp vào “Chấp nhận tất cả cookie”, bạn đồng ý lưu trữ cookie trên thiết bị của mình để cải thiện khả năng điều hướng trang web, phân tích việc sử dụng trang web và hỗ trợ các nỗ lực tiếp thị của chúng tôi. Thông tin thêm
Tối ưu hóa mô hình Ultralytics YOLOv8 của bạn để suy luận bằng OpenVINO. Làm theo hướng dẫn của chúng tôi để chuyển đổi mô hình PyTorch sang ONNX và tối ưu hóa chúng cho các ứng dụng thời gian thực.
Trong bài đăng trên blog này, chúng ta sẽ xem xét cách bạn có thể xuất và tối ưu hóa mô hình Ultralytics YOLOv8 được đào tạo trước hoặc được đào tạo tùy chỉnh của mình để suy luận bằng OpenVINO . Nếu bạn đang sử dụng hệ thống dựa trên Intel, cho dù đó là CPU hay GPU, hướng dẫn này sẽ chỉ cho bạn cách tăng tốc đáng kể mô hình của mình với nỗ lực tối thiểu.
Tại sao nên tối ưu hóa YOLOv8 bằng OpenVINO?
Tối ưu hóa mô hình YOLOv8 của bạn với OpenVINO có thể tăng tốc độ lên đến 3 lần cho các tác vụ suy luận, đặc biệt nếu bạn đang chạy CPU Intel. Sự gia tăng hiệu suất này có thể tạo ra sự khác biệt lớn trong các ứng dụng thời gian thực, từ phát hiện đối tượng đến phân đoạn và hệ thống bảo mật.
Các bước để xuất và tối ưu hóa mô hình YOLOv8 của bạn
Hiểu về quá trình
Trước tiên, hãy cùng phân tích quy trình. Chúng ta sẽ chuyển đổi mô hình PyTorch sang ONNX rồi tối ưu hóa bằng OpenVINO. Quy trình này bao gồm một vài bước đơn giản và có thể áp dụng cho nhiều mô hình và định dạng khác nhau, bao gồm TensorFlow, PyTorch, Caffe và ONNX.
Xuất mô hình
Nhảy vào tài liệu Ultralytics, chúng tôi thấy rằng việc xuất mô hình YOLOv8 liên quan đến việc sử dụng phương pháp xuất từ khuôn khổ Ultralytics. Phương pháp này cho phép chúng tôi chuyển đổi mô hình của mình từ PyTorch sang ONNX và cuối cùng, tối ưu hóa nó cho OpenVINO. Kết quả là một mô hình chạy nhanh hơn đáng kể, tận dụng phần cứng mạnh mẽ của Intel.
Cài đặt các phụ thuộc
Trước khi chạy tập lệnh xuất, bạn cần đảm bảo rằng tất cả các phụ thuộc cần thiết đã được cài đặt. Bao gồm thư viện Ultralytics, ONNX và OpenVINO. Cài đặt các gói này là một quá trình đơn giản có thể được thực hiện thông qua pip, trình cài đặt gói Python.
Chạy tập lệnh xuất
Sau khi môi trường của bạn được thiết lập, bạn có thể chạy tập lệnh xuất của mình. Tập lệnh này sẽ chuyển đổi mô hình PyTorch của bạn sang ONNX và sau đó sang OpenVINO. Quá trình này rất đơn giản và bao gồm việc gọi một hàm duy nhất để xử lý việc xuất. Khung Ultralytics giúp bạn dễ dàng chuyển đổi và tối ưu hóa các mô hình của mình, đảm bảo bạn có được hiệu suất tốt nhất với ít rắc rối nhất.
Sau khi xuất, điều cần thiết là so sánh hiệu suất của các mô hình gốc và mô hình được tối ưu hóa. Bằng cách đánh giá chuẩn thời gian suy luận của cả hai mô hình, bạn có thể thấy rõ mức tăng hiệu suất. Thông thường, mô hình OpenVINO sẽ cho thấy thời gian suy luận giảm đáng kể so với mô hình PyTorch gốc. Điều này đặc biệt đúng đối với các mô hình lớn hơn, nơi hiệu suất tăng đáng kể nhất.
Ứng dụng và lợi ích trong thế giới thực
Tối ưu hóa các mô hình YOLOv8 với OpenVINO đặc biệt có lợi cho các ứng dụng yêu cầu xử lý thời gian thực. Sau đây là một số ví dụ:
Hệ thống an ninh : Phát hiện vật thể theo thời gian thực có thể cảnh báo ngay cho nhân viên an ninh, tăng cường tính an toàn và khả năng phản ứng.
Xe tự hành: Tốc độ suy luận nhanh hơn giúp cải thiện khả năng phản ứng của hệ thống lái xe tự động, giúp chúng an toàn và đáng tin cậy hơn.
Chăm sóc sức khỏe: Xử lý hình ảnh nhanh chóng cho các công cụ chẩn đoán có thể cứu sống người bệnh bằng cách cung cấp kết quả nhanh hơn, cho phép can thiệp kịp thời.
Bằng cách triển khai các tối ưu hóa này, bạn không chỉ cải thiện hiệu suất mà còn nâng cao độ tin cậy và hiệu quả của các ứng dụng. Điều này có thể dẫn đến trải nghiệm người dùng tốt hơn, tăng năng suất và các giải pháp sáng tạo hơn.
Kết thúc
Xuất và tối ưu hóa mô hình YOLOv8 cho OpenVINO là một cách mạnh mẽ để tận dụng phần cứng Intel cho các ứng dụng AI nhanh hơn và hiệu quả hơn. Chỉ với một vài bước đơn giản, bạn có thể chuyển đổi hiệu suất của mô hình và áp dụng nó vào các tình huống thực tế một cách hiệu quả.
Hãy nhớ xem thêm các hướng dẫn và bài hướng dẫn từ Ultralytics để tiếp tục cải thiện các dự án AI của bạn. Truy cập kho lưu trữ GitHub của chúng tôi và tham gia cộng đồng Ultralytics để biết thêm thông tin chi tiết và cập nhật. Hãy cùng nhau đổi mới!
Hãy nhớ rằng, việc tối ưu hóa mô hình không chỉ là về tốc độ mà còn là mở ra những khả năng mới và đảm bảo các giải pháp AI của bạn mạnh mẽ, hiệu quả và sẵn sàng cho tương lai.