Mang Ultralytics YOLO11 đến các thiết bị Apple thông qua CoreML

Abirami Vina

4 phút đọc

Ngày 30 tháng 7 năm 2025

Xem cách dễ dàng đưa Ultralytics YOLO11 vào các thiết bị Apple với CoreML và kích hoạt các tác vụ thị giác máy tính ngoại tuyến nhanh chóng cho các ứng dụng iOS thời gian thực.

Với việc Apple giới thiệu các tính năng như Apple Intelligence , rõ ràng AI trên thiết bị đang trở thành một phần cốt lõi trong cách chúng ta sử dụng điện thoại. Đối với các nhà phát triển, sự thay đổi này đồng nghĩa với việc người dùng đang áp dụng các ứng dụng iOS sử dụng các tính năng như thị giác máy tính để mang lại trải nghiệm thông minh hơn và phản hồi nhanh hơn.

Thị giác máy tính là một loại trí tuệ nhân tạo (AI) cho phép máy tính hiểu và phân tích thông tin trực quan, chẳng hạn như hình ảnh hoặc video. Trên thiết bị di động, AI có thể được sử dụng theo thời gian thực để phát hiện, phân loại và tương tác với các đối tượng thông qua camera của điện thoại. Các mô hình AI thị giác như Ultralytics YOLO11 có thể được đào tạo tùy chỉnh để nhận dạng các đối tượng cụ thể, tùy thuộc vào nhu cầu của ứng dụng. 

Tuy nhiên, YOLO11 không được thiết lập để chạy ngay trên iOS. Để triển khai YOLO11 trên iPhone hoặc các thiết bị Apple khác, đặc biệt là để sử dụng ngoại tuyến, cần phải chuyển đổi nó sang định dạng được tối ưu hóa cho hệ sinh thái của Apple. 

Đây chính xác là loại vấn đề mà CoreML được xây dựng để giải quyết. CoreML là nền tảng học máy của Apple, được xây dựng để chạy các mô hình cục bộ và tích hợp liền mạch vào các ứng dụng iOS và macOS. Tích hợp CoreML , được hỗ trợ bởi Ultralytics, giúp bạn dễ dàng xuất mô hình để triển khai cục bộ trên iPhone.

Trong bài viết này, chúng ta sẽ xem xét kỹ hơn cách xuất mô hình YOLO11 của bạn sang định dạng CoreML. Chúng ta cũng sẽ khám phá các trường hợp sử dụng thời gian thực cho thấy lợi ích của việc chạy mô hình thị giác máy tính trực tiếp trên thiết bị iOS. Hãy bắt đầu thôi!

CoreML là gì?

CoreML là một nền tảng học máy (ML) do Apple phát triển, cho phép các nhà phát triển tích hợp các mô hình ML đã được đào tạo trực tiếp vào các ứng dụng trên toàn hệ sinh thái Apple, bao gồm iOS (iPhone và iPad), macOS (Mac), watchOS (Apple Watch) và tvOS (Apple TV). CoreML được thiết kế để giúp học máy trở nên dễ tiếp cận và hiệu quả trên các thiết bị Apple bằng cách cho phép các mô hình chạy trực tiếp trên thiết bị mà không cần kết nối internet.

Cốt lõi của CoreML là một định dạng mô hình thống nhất hỗ trợ nhiều tác vụ AI như phân loại hình ảnh, phát hiện đối tượng, nhận dạng giọng nói và xử lý ngôn ngữ tự nhiên. Khung này được tối ưu hóa để tận dụng tối đa phần cứng của Apple, sử dụng CPU (bộ xử lý trung tâm), GPU (bộ xử lý đồ họa) và ANE (Apple Neural Engine) để thực thi mô hình nhanh chóng và hiệu quả.

CoreML hỗ trợ nhiều loại mô hình và tương thích với các thư viện học máy phổ biến, bao gồm TensorFlow, PyTorch, scikit-learn, XGBoost và LibSVM. Điều này giúp các nhà phát triển dễ dàng tích hợp các khả năng học máy tiên tiến vào các ứng dụng hàng ngày, đồng thời đảm bảo chúng chạy mượt mà trên các thiết bị Apple.

Hình 1. CoreML hỗ trợ các mô hình từ các nền tảng AI phổ biến khác ( Nguồn ).

Các tính năng chính của CoreML

Sau đây là một số tính năng chính khiến CoreML trở thành công cụ đáng tin cậy để tích hợp AI vào ứng dụng Apple:

  • Tối ưu hóa mô hình : CoreML hỗ trợ các kỹ thuật nén như lượng tử hóa và cắt tỉa để giảm kích thước mô hình và cải thiện hiệu quả thời gian chạy.
  • Cá nhân hóa trên thiết bị: Khung ML của Apple hỗ trợ cá nhân hóa trên thiết bị, cho phép đào tạo và cập nhật các mô hình cục bộ dựa trên tương tác của người dùng.
  • Dự đoán không đồng bộ: Khung này cho phép ứng dụng của bạn chạy dự đoán ở chế độ nền, giúp giao diện người dùng mượt mà và phản hồi nhanh trong khi xử lý các tác vụ AI.
  • Học đa nhiệm : CoreML hỗ trợ các mô hình có thể thực hiện nhiều nhiệm vụ cùng lúc, như phát hiện đối tượng và nhận dạng văn bản trong cùng một hình ảnh.

Cách xuất YOLO11 sang định dạng CoreML

Bây giờ chúng ta đã hiểu rõ hơn về khuôn khổ CoreML, hãy cùng tìm hiểu cách sử dụng tích hợp CoreML được Ultralytics hỗ trợ để xuất mô hình YOLO11 sang định dạng CoreML.

Bước 1: Thiết lập môi trường của bạn

Để truy cập các tính năng tích hợp do Ultralytics cung cấp, hãy bắt đầu bằng cách cài đặt gói Ultralytics Python . Đây là một thư viện nhẹ, dễ sử dụng, giúp đơn giản hóa các tác vụ như đào tạo, đánh giá, dự đoán và xuất mô hình Ultralytics YOLO.

Bạn có thể cài đặt gói Ultralytics Python bằng cách chạy lệnh " pip install ultralytics " trên terminal. Nếu bạn đang sử dụng môi trường như Jupyter Notebook hoặc Google Colab, hãy thêm dấu chấm than (!) trước lệnh: " !pip install ultralytics ".

Nếu bạn gặp bất kỳ sự cố nào trong quá trình cài đặt hoặc khi xuất sang CoreML, hãy kiểm tra tài liệu chính thức của Ultralytics hoặc hướng dẫn Sự cố thường gặp để được trợ giúp.

Bước 2: Xuất YOLO11 sang CoreML

Sau khi gói được cài đặt thành công, bạn đã sẵn sàng tải mô hình YOLO11 và chuyển đổi nó sang định dạng CoreML.

Nếu bạn không chắc chắn nên sử dụng mô hình YOLO11 đã được đào tạo sẵn nào, bạn có thể khám phá danh sách các mô hình được Ultralytics hỗ trợ . Mỗi mô hình cung cấp sự cân bằng khác nhau về tốc độ, kích thước và độ chính xác, và bạn có thể chọn mô hình phù hợp nhất cho dự án của mình. Bạn cũng có thể sử dụng mô hình YOLO11 đã được đào tạo tùy chỉnh nếu bạn đã đào tạo một mô hình trên tập dữ liệu của riêng mình.

Trong đoạn mã dưới đây, một tệp mô hình YOLO11 đã được đào tạo trước có tên "yolo11n.pt" được sử dụng. Trong quá trình xuất, tệp này được chuyển đổi thành một gói CoreML có tên "yolo11n.mlpackage".

Mô hình "yolo11n" là phiên bản nano, được tối ưu hóa về tốc độ và sử dụng ít tài nguyên. Tùy thuộc vào nhu cầu của dự án, bạn cũng có thể chọn các kích thước mô hình khác như "s" cho kích thước nhỏ, "m" cho kích thước trung bình, "l" cho kích thước lớn hoặc "x" cho kích thước cực lớn. Mỗi phiên bản mang đến sự cân bằng khác nhau giữa hiệu suất và độ chính xác.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

Bước 3: Chạy suy luận bằng mô hình CoreML đã xuất

Sau khi xuất sang định dạng CoreML, YOLO11 có thể dễ dàng tích hợp vào các ứng dụng iOS, cho phép thực hiện các tác vụ thị giác máy tính theo thời gian thực như phát hiện đối tượng trên các thiết bị như iPhone, iPad và Mac.

Ví dụ, đoạn mã dưới đây minh họa cách tải mô hình CoreML đã xuất và thực hiện suy luận. Suy luận là quá trình sử dụng một mô hình đã được đào tạo để đưa ra dự đoán dựa trên dữ liệu mới. Trong trường hợp này, mô hình phân tích hình ảnh một gia đình đang chơi bóng.

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

Sau khi chạy mã, hình ảnh đầu ra sẽ được lưu trong thư mục "runs/detect/predict".

Hình 2. Sử dụng mô hình YOLO11 được xuất ở định dạng CoreML để phát hiện đối tượng. Hình ảnh của tác giả.

Có thể sử dụng các mô hình CoreML đã xuất ở đâu?

Việc xuất YOLO11 sang CoreML mang lại sự linh hoạt để xây dựng các ứng dụng thị giác máy tính đa dạng, có thể chạy hiệu quả trên iPhone, iPad và máy Mac. Tiếp theo, hãy cùng xem xét một số tình huống thực tế mà việc tích hợp này có thể đặc biệt hữu ích.

Ứng dụng thực tế tăng cường và trò chơi được điều khiển bởi các mô hình CoreML

Thực tế tăng cường (AR) kết hợp nội dung kỹ thuật số với thế giới thực bằng cách chồng các yếu tố ảo lên chế độ xem camera trực tiếp. Công nghệ này đang trở thành một phần quan trọng của trò chơi di động, tạo ra những trải nghiệm tương tác và nhập vai hơn.

Với YOLO11 được xuất sang định dạng CoreML, các nhà phát triển iOS có thể xây dựng các trò chơi AR nhận dạng các vật thể trong thế giới thực như ghế dài, cây cối hoặc biển báo bằng camera của điện thoại. Sau đó, trò chơi có thể phủ các vật phẩm ảo, chẳng hạn như đồng xu, manh mối hoặc sinh vật, lên trên các vật thể này để nâng cao trải nghiệm của người chơi.

Về cơ bản, tính năng này hoạt động bằng cách sử dụng công nghệ phát hiện và theo dõi vật thể. YOLO11 phát hiện và nhận dạng vật thể theo thời gian thực, trong khi tính năng theo dõi sẽ giữ cho các vật thể đó luôn trong tầm nhìn khi camera di chuyển, đảm bảo các yếu tố ảo luôn khớp với thế giới thực.

Người chơi có thể hướng điện thoại, khám phá môi trường xung quanh và tương tác với những gì họ thấy để thu thập vật phẩm hoặc hoàn thành các thử thách nhanh. Tất cả những tính năng này có thể chạy trực tiếp trên thiết bị mà không cần kết nối internet, mang lại trải nghiệm mượt mà và hấp dẫn.

Ứng dụng iOS được tích hợp với các mô hình CoreML để thực hiện ANPR theo thời gian thực

Nhận dạng Biển số Tự động (ANPR) là một ứng dụng thị giác máy tính được sử dụng để phát hiện và đọc biển số xe. Nó thường được sử dụng trong các hệ thống an ninh, giám sát giao thông và kiểm soát ra vào. Với CoreML và các mô hình như YOLO11, ANPR giờ đây có thể hoạt động hiệu quả trên các thiết bị iOS. 

Việc cài đặt ứng dụng ANPR trên iPhone có thể đặc biệt hữu ích trong các môi trường tập trung vào an ninh. Ví dụ: ứng dụng này có thể giúp các đội nhanh chóng xác định liệu một phương tiện đi vào khu vực hạn chế có được phép hay không.

Ứng dụng này có thể sử dụng mô hình Vision AI như YOLO11, được tích hợp thông qua CoreML, để phát hiện xe và định vị biển số xe theo thời gian thực bằng camera của thiết bị. Sau khi phát hiện biển số, công nghệ Nhận dạng Ký tự Quang học (OCR) có thể đọc số giấy phép. Ứng dụng sau đó có thể so sánh số này với cơ sở dữ liệu cục bộ hoặc trên nền tảng đám mây để xác minh quyền truy cập hoặc gắn cờ các phương tiện trái phép.

Hình 3. Vision AI có thể được sử dụng để phát hiện và đọc số biển số xe. ( Nguồn ).

Các ứng dụng tập trung vào khả năng truy cập có thể tận dụng các mô hình CoreML

Trí tuệ nhân tạo (AI) đã có tác động to lớn đến khả năng tiếp cận , giúp phá bỏ rào cản cho người khiếm thị. Với các công cụ như CoreML và các mô hình thị giác máy tính như YOLO11, các nhà phát triển có thể xây dựng các ứng dụng iOS mô tả thế giới xung quanh người dùng theo thời gian thực, giúp các tác vụ hàng ngày trở nên dễ dàng và độc lập hơn.

Ví dụ, người khiếm thị có thể hướng camera iPhone vào môi trường xung quanh. Ứng dụng sử dụng tính năng phát hiện vật thể để nhận dạng các yếu tố chính, chẳng hạn như xe cộ, người hoặc biển báo đường phố, và tường thuật lại những gì nhìn thấy. Tính năng này có thể được sử dụng trong các tình huống như định hướng trên đường phố đông đúc hoặc hiểu được tình huống khẩn cấp.

Hình 4. Một ví dụ về việc sử dụng YOLO11 để phát hiện con người

Những điểm chính

Việc xuất YOLO11 sang định dạng CoreML tạo ra những cơ hội mới cho các ứng dụng thời gian thực, bao gồm phát hiện đối tượng ngoại tuyến trên thiết bị iOS. Từ nông nghiệp, an ninh đến khả năng truy cập, sự kết hợp này cho phép các nhà phát triển xây dựng các ứng dụng thông minh, hiệu quả và tập trung vào quyền riêng tư, chạy hoàn toàn trên thiết bị.

Chỉ với vài bước đơn giản, bạn có thể chuyển đổi mô hình YOLO11 và thêm các tính năng thị giác máy tính đáng tin cậy vào iPhone. Tuyệt vời hơn nữa, nó hoạt động mà không cần kết nối internet. Nhìn chung, tích hợp CoreML mang sức mạnh của AI tiên tiến vào các ứng dụng di động hàng ngày, giúp chúng nhanh hơn, phản hồi nhanh hơn và sẵn sàng chạy ở mọi nơi.

Bạn tò mò muốn tìm hiểu thêm về AI? Khám phá kho lưu trữ GitHub của chúng tôi, kết nối với cộng đồng và xem qua các tùy chọn cấp phép để khởi động dự án thị giác máy tính của bạn. Tìm hiểu cách các đổi mới như AI trong bán lẻthị giác máy tính trong hậu cần đang định hình tương lai trên các trang giải pháp của chúng tôi.

Hãy cùng xây dựng tương lai
của AI cùng nhau!

Bắt đầu hành trình của bạn với tương lai của máy học

Bắt đầu miễn phí
Liên kết đã được sao chép vào clipboard