Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay

Mang lại Ultralytics YOLO11 đến các thiết bị Apple thông qua CoreML

Abirami Vina

4 phút đọc

30 tháng 7, 2025

Xem cách dễ dàng để mang theo Ultralytics YOLO11 đến các thiết bị Apple với CoreML và cho phép các tác vụ thị giác máy tính ngoại tuyến nhanh chóng trong thời gian thực iOS ứng dụng.

Với việc Apple giới thiệu các tính năng như Apple Intelligence , rõ ràng AI trên thiết bị đang trở thành một phần cốt lõi trong cách chúng ta sử dụng điện thoại. Đối với các nhà phát triển, sự thay đổi này có nghĩa là người dùng đang áp dụng iOS các ứng dụng sử dụng các khả năng như thị giác máy tính để mang lại trải nghiệm thông minh hơn, phản hồi nhanh hơn.

Thị giác máy tính là một loại trí tuệ nhân tạo (AI) cho phép máy tính hiểu và phân tích thông tin trực quan, chẳng hạn như hình ảnh hoặc video. Trên thiết bị di động, nó có thể được sử dụng theo thời gian thực để detect , classify và tương tác với các vật thể thông qua camera của điện thoại. Các mô hình AI thị giác như Ultralytics YOLO11 có thể được đào tạo tùy chỉnh để nhận dạng các vật thể cụ thể, tùy thuộc vào nhu cầu của ứng dụng. 

Tuy nhiên, YOLO11 không được thiết lập để chạy trên iOS ngay khi mở hộp. Để triển khai YOLO11 trên iPhone hoặc các thiết bị Apple khác, đặc biệt là khi sử dụng ngoại tuyến, cần phải chuyển đổi sang định dạng được tối ưu hóa cho hệ sinh thái của Apple. 

Đây chính xác là loại vấn đề CoreML được xây dựng để giải quyết. CoreML là khuôn khổ học máy của Apple, được xây dựng để chạy các mô hình cục bộ và tích hợp liền mạch vào iOS và các ứng dụng macOS. Tích hợp CoreML , được hỗ trợ bởi Ultralytics , giúp bạn dễ dàng xuất mô hình của mình để triển khai cục bộ trên iPhone.

Trong bài viết này, chúng ta sẽ xem xét kỹ hơn cách xuất YOLO11 mô hình cho CoreML định dạng. Chúng tôi cũng sẽ khám phá các trường hợp sử dụng thời gian thực cho thấy lợi thế của việc chạy các mô hình thị giác máy tính trực tiếp trên iOS thiết bị. Hãy bắt đầu thôi!

Là gì CoreML ?

CoreML là một khuôn khổ học máy (ML) do Apple phát triển, cho phép các nhà phát triển tích hợp các mô hình ML đã được đào tạo trực tiếp vào các ứng dụng trên toàn hệ sinh thái của Apple, bao gồm iOS (iPhone và iPad), macOS (Mac), watchOS (Apple Watch) và tvOS (Apple TV). Hệ điều hành này được thiết kế để giúp máy học dễ tiếp cận và hoạt động hiệu quả trên các thiết bị Apple bằng cách cho phép các mô hình chạy trực tiếp trên thiết bị mà không cần kết nối internet.

Ở cốt lõi của CoreML là một định dạng mô hình thống nhất hỗ trợ nhiều tác vụ AI như phân loại hình ảnh, phát hiện đối tượng, nhận dạng giọng nói và xử lý ngôn ngữ tự nhiên. Khung này được tối ưu hóa để tận dụng tối đa phần cứng của Apple, sử dụng CPU (bộ xử lý trung tâm), GPU (bộ xử lý đồ họa) và ANE (Apple Neural Engine) để thực hiện các mô hình một cách nhanh chóng và hiệu quả.

CoreML hỗ trợ nhiều loại mô hình khác nhau và tương thích với các thư viện máy học phổ biến, bao gồm TensorFlow , PyTorch , scikit-learn, XGBoost và LibSVM. Điều này giúp các nhà phát triển dễ dàng tích hợp các khả năng học máy tiên tiến vào các ứng dụng hàng ngày, đồng thời đảm bảo chúng chạy mượt mà trên các thiết bị Apple.

Hình 1. CoreML hỗ trợ các mô hình từ các khuôn khổ AI phổ biến khác ( Nguồn ).

Các tính năng chính của CoreML

Dưới đây là một số tính năng chính làm nên CoreML một công cụ đáng tin cậy để tích hợp AI vào các ứng dụng của Apple:

  • Tối ưu hóa mô hình : CoreML hỗ trợ các kỹ thuật nén như lượng tử hóa và cắt tỉa để giảm kích thước mô hình và cải thiện hiệu quả thời gian chạy.
  • Cá nhân hóa trên thiết bị: Khung ML của Apple hỗ trợ cá nhân hóa trên thiết bị, cho phép các mô hình được đào tạo và cập nhật cục bộ dựa trên tương tác của người dùng.
  • Dự đoán không đồng bộ: Khung này cho phép ứng dụng của bạn chạy các dự đoán trong nền, giữ cho giao diện người dùng mượt mà và phản hồi nhanh trong khi xử lý các tác vụ AI.
  • Học tập đa nhiệm vụ : CoreML hỗ trợ các mô hình có thể thực hiện nhiều tác vụ cùng lúc, như phát hiện đối tượng và nhận dạng văn bản trong cùng một hình ảnh.

Cách xuất khẩu YOLO11 ĐẾN CoreML định dạng

Bây giờ chúng ta đã hiểu rõ hơn về CoreML khuôn khổ, chúng ta hãy cùng tìm hiểu cách sử dụng CoreML tích hợp được hỗ trợ bởi Ultralytics để xuất khẩu một YOLO11 mô hình cho CoreML định dạng.

Bước 1: Thiết lập môi trường của bạn

Để truy cập các tính năng tích hợp được cung cấp bởi Ultralytics , hãy bắt đầu bằng cách cài đặt gói Ultralytics Python . Đây là một thư viện nhẹ, dễ sử dụng giúp đơn giản hóa các tác vụ như đào tạo, đánh giá, dự đoán và xuất dữ liệu. Ultralytics YOLO các mô hình.

Bạn có thể cài đặt Ultralytics Python gói bằng cách chạy lệnh “ pip install ultralytics ” trong terminal của bạn. Nếu bạn đang sử dụng một môi trường như Jupyter Notebook hoặc Google Colab, hãy thêm dấu chấm than (!) trước lệnh: “ !pip install ultralytics ”.

Nếu bạn gặp bất kỳ sự cố nào trong quá trình cài đặt hoặc khi xuất sang CoreML , kiểm tra chính thức Ultralytics tài liệu hoặc hướng dẫn Các vấn đề thường gặp để được trợ giúp.

Bước 2: Xuất YOLO11 ĐẾN CoreML

Sau khi gói được cài đặt thành công, bạn đã sẵn sàng để tải YOLO11 mô hình và chuyển đổi nó thành CoreML định dạng.

Nếu bạn không chắc chắn về những gì được đào tạo trước YOLO11 mô hình để sử dụng, bạn có thể khám phá phạm vi các mô hình được hỗ trợ bởi Ultralytics Mỗi loại đều có sự cân bằng khác nhau về tốc độ, kích thước và độ chính xác, và bạn có thể chọn loại phù hợp nhất cho dự án của mình. Bạn cũng có thể sử dụng một chuyên gia được đào tạo riêng. YOLO11 mô hình nếu bạn đã đào tạo một mô hình trên tập dữ liệu của riêng bạn.

Trong đoạn mã dưới đây, một YOLO11 Tệp mô hình có tên "yolo11n.pt" được sử dụng. Trong quá trình xuất, tệp này được chuyển đổi thành CoreML gói có tên "yolo11n.mlpackage."

Mô hình "yolo11n" là phiên bản nano, được tối ưu hóa cho tốc độ và sử dụng tài nguyên thấp. Tùy thuộc vào nhu cầu của dự án, bạn cũng có thể chọn các kích thước mô hình khác như "s" cho nhỏ, "m" cho vừa, "l" cho lớn hoặc "x" cho cực lớn. Mỗi phiên bản cung cấp một sự cân bằng khác nhau giữa hiệu suất và độ chính xác.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

Bước 3: Chạy suy luận bằng cách sử dụng CoreML người mẫu

Sau khi xuất sang CoreML định dạng, YOLO11 có thể dễ dàng tích hợp vào iOS các ứng dụng, cho phép thực hiện các tác vụ thị giác máy tính theo thời gian thực như phát hiện đối tượng trên các thiết bị như iPhone, iPad và máy Mac.

Ví dụ, đoạn mã dưới đây minh họa cách tải tệp đã xuất CoreML Mô hình hóa và thực hiện suy luận. Suy luận là quá trình sử dụng một mô hình đã được đào tạo để đưa ra dự đoán dựa trên dữ liệu mới. Trong trường hợp này, mô hình phân tích hình ảnh một gia đình đang chơi bóng.

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

Sau khi chạy mã, hình ảnh đầu ra sẽ được lưu trong thư mục "runs/ detect thư mục "/predict".

Hình 2. Sử dụng một YOLO11 mô hình trong CoreML định dạng thành detect đồ vật. Hình ảnh của tác giả.

Có thể xuất khẩu ở đâu? CoreML mô hình có thể được sử dụng?

Xuất khẩu YOLO11 ĐẾN CoreML mang lại sự linh hoạt để xây dựng các ứng dụng thị giác máy tính đa dạng, có thể chạy hiệu quả trên iPhone, iPad và máy Mac. Tiếp theo, hãy cùng xem xét một số tình huống thực tế mà sự tích hợp này có thể đặc biệt hữu ích.

Ứng dụng thực tế tăng cường và trò chơi được thúc đẩy bởi CoreML các mô hình

Thực tế tăng cường (AR) kết hợp nội dung kỹ thuật số với thế giới thực bằng cách phủ các yếu tố ảo lên chế độ xem camera trực tiếp. Nó đang trở thành một phần quan trọng của trò chơi trên thiết bị di động, tạo ra trải nghiệm tương tác và nhập vai hơn.

Với YOLO11 xuất khẩu sang CoreML định dạng, iOS Các nhà phát triển có thể xây dựng các trò chơi AR nhận dạng các vật thể trong thế giới thực như ghế dài, cây cối hoặc biển báo bằng camera của điện thoại. Sau đó, trò chơi có thể phủ các vật phẩm ảo, chẳng hạn như tiền xu, manh mối hoặc sinh vật, lên trên các vật thể này để nâng cao trải nghiệm của người chơi.

Về cơ bản, tính năng này hoạt động bằng cách phát hiện và theo dõi đối tượng. YOLO11 phát hiện và xác định các đối tượng theo thời gian thực, trong khi theo dõi giúp giữ các đối tượng đó trong tầm nhìn khi camera di chuyển, đảm bảo các yếu tố ảo luôn thẳng hàng với thế giới thực.

Người chơi có thể hướng điện thoại của họ, khám phá môi trường xung quanh và tương tác với những gì họ thấy để thu thập vật phẩm hoặc hoàn thành các thử thách nhanh. Tất cả những điều này có thể chạy trực tiếp trên thiết bị mà không cần kết nối internet, giúp trải nghiệm mượt mà và hấp dẫn.

iOS ứng dụng tích hợp với CoreML mô hình cho ANPR thời gian thực

Nhận dạng biển số xe tự động (ANPR) là một ứng dụng thị giác máy tính được sử dụng để detect và đọc biển số xe. Nó thường được sử dụng trong các hệ thống an ninh, giám sát giao thông và kiểm soát ra vào. Với CoreML và các mô hình như YOLO11 , ANPR hiện có thể chạy hiệu quả trên iOS thiết bị. 

Có một ứng dụng ANPR trên iPhone của bạn có thể đặc biệt hữu ích trong môi trường tập trung vào bảo mật. Ví dụ: nó có thể giúp các nhóm nhanh chóng xác định xem một chiếc xe đi vào khu vực hạn chế có được phép hay không.

Một ứng dụng như vậy có thể sử dụng mô hình Vision AI như YOLO11 , được tích hợp thông qua CoreML , ĐẾN detect Xác định vị trí biển số xe theo thời gian thực bằng camera của thiết bị. Sau khi phát hiện biển số, công nghệ Nhận dạng Ký tự Quang học (OCR) có thể đọc số giấy phép. Ứng dụng sau đó có thể so sánh số này với cơ sở dữ liệu cục bộ hoặc trên nền tảng đám mây để xác minh quyền truy cập hoặc gắn cờ các phương tiện trái phép.

Hình 3. AI thị giác có thể được sử dụng để detect và đọc số biển số xe. ( Nguồn ).

Các ứng dụng tập trung vào khả năng truy cập có thể tận dụng CoreML các mô hình

AI đã có tác động rất lớn đến khả năng tiếp cận , giúp phá vỡ rào cản đối với người khiếm thị. Với các công cụ như CoreML và các mô hình thị giác máy tính như YOLO11 , các nhà phát triển có thể xây dựng iOS các ứng dụng mô tả thế giới xung quanh người dùng theo thời gian thực, giúp các công việc hàng ngày trở nên dễ dàng và độc lập hơn.

Ví dụ: một người khiếm thị có thể hướng camera iPhone của họ vào môi trường xung quanh. Ứng dụng sử dụng object detection để nhận dạng các yếu tố chính, như xe cộ, người hoặc biển báo đường phố, và thuật lại những gì nó thấy. Điều này có thể được sử dụng trong các tình huống như điều hướng một con phố đông đúc hoặc hiểu một tình huống khẩn cấp.

Hình 4. Một ví dụ về việc sử dụng YOLO11 ĐẾN detect mọi người

Những điều cần nhớ

Xuất khẩu YOLO11 đến CoreML định dạng tạo ra những cơ hội mới cho các ứng dụng thời gian thực, bao gồm phát hiện đối tượng ngoại tuyến trên iOS thiết bị. Từ nông nghiệp và an ninh đến khả năng truy cập, sự kết hợp này cho phép các nhà phát triển xây dựng các ứng dụng thông minh, hiệu quả và tập trung vào quyền riêng tư chạy hoàn toàn trên thiết bị.

Chỉ với một vài bước đơn giản, bạn có thể chuyển đổi YOLO11 và bổ sung các tính năng thị giác máy tính đáng tin cậy cho iPhone. Tuyệt vời nhất là nó hoạt động mà không cần kết nối internet. Nhìn chung, CoreML Tích hợp mang sức mạnh của AI tiên tiến vào các ứng dụng di động hàng ngày, giúp chúng nhanh hơn, phản hồi nhanh hơn và sẵn sàng chạy ở mọi nơi.

Bạn muốn tìm hiểu thêm về AI? Khám phá kho lưu trữ GitHub của chúng tôi, kết nối với cộng đồng của chúng tôi và xem các tùy chọn cấp phép của chúng tôi để khởi động dự án thị giác máy tính của bạn. Tìm hiểu cách những đổi mới như AI trong bán lẻthị giác máy tính trong logistics đang định hình tương lai trên các trang giải pháp của chúng tôi.

Hãy cùng nhau xây dựng tương lai
của AI!

Bắt đầu hành trình của bạn với tương lai của học máy

Bắt đầu miễn phí