通过 CoreML 将 Ultralytics YOLO11 移植到苹果设备上

阿比拉米-维纳

4 分钟阅读

2025 年 7 月 30 日

了解如何通过 CoreML 轻松将 Ultralytics YOLO11 移植到苹果设备,并为实时 iOS 应用程序实现快速离线计算机视觉任务。

随着苹果公司推出Apple Intelligence 等功能,设备上的人工智能显然正在成为我们使用手机的核心部分。对于开发者来说,这种转变意味着用户正在采用使用计算机视觉等功能的 iOS 应用程序,以提供更智能、反应更灵敏的体验。

计算机视觉是一种人工智能(AI),能让计算机理解和分析图像或视频等视觉信息。在移动设备上,它可以通过手机摄像头对物体进行实时检测、分类和交互。像Ultralytics YOLO11这样的视觉人工智能模型可以根据应用程序的需要进行定制训练,以识别特定对象。 

不过,YOLO11 并不是开箱就能在 iOS 上运行的。要在 iPhone 或其他苹果设备上部署 YOLO11,尤其是离线使用,需要将其转换为针对苹果生态系统进行优化的格式。 

这正是 CoreML 要解决的问题。CoreML 是苹果公司的机器学习框架,旨在本地运行模型,并无缝集成到 iOS 和 macOS 应用程序中。Ultralytics 支持CoreML 集成,可以轻松导出模型,在 iPhone 上进行本地部署。

在本文中,我们将详细介绍如何将 YOLO11 模型导出为 CoreML 格式。我们还将探讨实时使用案例,展示直接在 iOS 设备上运行计算机视觉模型的优势。让我们开始吧!

什么是 CoreML?

CoreML 是苹果公司开发的机器学习 (ML) 框架,开发人员可以将训练有素的 ML 模型直接集成到苹果生态系统的应用程序中,包括 iOS(iPhone 和 iPad)、macOS(Mac)、watchOS(Apple Watch)和 tvOS(Apple TV)。它旨在通过使模型能够直接在设备上运行,而无需互联网连接,从而使机器学习在苹果设备上变得易用和高效。

CoreML 的核心是一种统一的模型格式,支持广泛的人工智能任务,如图像分类、物体检测、语音识别和自然语言处理。该框架经过优化,可充分利用苹果的硬件,使用 CPU(中央处理器)、GPU(图形处理器)和 ANE(苹果神经引擎)快速高效地执行模型。

CoreML 支持多种模型类型,并与 TensorFlow、PyTorch、scikit-learn、XGBoost 和 LibSVM 等流行的机器学习库兼容。这样,开发人员就能更轻松地将高级 ML 功能引入日常应用程序,同时确保它们在苹果设备上流畅运行。

图 1.CoreML 支持其他流行人工智能框架的模型(资料来源)。

CoreML 的主要功能

以下是使 CoreML 成为将人工智能集成到苹果应用程序的可靠工具的一些关键功能:

  • 型号优化: CoreML 支持量化和剪枝等压缩技术,以减小模型大小并提高运行效率。
  • 设备上的个性化Apple 的 ML 框架支持设备上的个性化定制,可根据用户交互情况在本地训练和更新模型。
  • 异步预测: 该框架可让您的应用程序在后台运行预测,在处理人工智能任务的同时保持用户界面流畅、响应迅速。
  • 多任务学习:CoreML 支持可同时执行多项任务的模型,如在同一图像中检测物体和识别文字。

如何将 YOLO11 导出为 CoreML 格式

现在,我们对 CoreML 框架有了更深入的了解,下面就让我们来看看如何使用 Ultralytics 支持的 CoreML 集成,将 YOLO11 模型导出为 CoreML 格式。

步骤 1:设置环境

要使用 Ultralytics 提供的集成功能,首先要安装Ultralytics Python 软件包。这是一个轻量级的易用库,可以简化训练、评估、预测和输出 Ultralytics YOLO 模型等任务。

在命令终端运行 "pip installultralytics "即可安装UltralyticsPython 软件包。如果使用的是 Jupyter Notebook 或 Google Colab 等环境,请在命令前加上感叹号(!):"!pip install ultralytics"。

如果在安装过程中或导出到 CoreML 时遇到任何问题,请查看 Ultralytics 官方文档或常见问题指南以获得帮助。

步骤 2:将 YOLO11 导出到 CoreML

软件包安装成功后,您就可以加载 YOLO11 模型并将其转换为 CoreML 格式。

如果您不确定使用哪种预训练的 YOLO11 模型,您可以探索 Ultralytics支持 的一系列模型 。每种模型都能在速度、大小和准确性之间取得不同的平衡,您可以选择最适合您项目的模型。如果您已经在自己的数据集上训练了一个 YOLO11 模型,也可以使用自定义训练的模型。

在下面的代码片段中,使用了一个名为 "yolo11n.pt "的预训练 YOLO11 模型文件。在导出过程中,它被转换成一个名为 "yolo11n.mlpackage "的 CoreML 包。

yolo11n "型号是 nano 版本,经过优化,速度更快,资源占用率更低。根据项目需要,您还可以选择其他型号,如 "s "表示小型,"m "表示中型,"l "表示大型,或 "x "表示超大型。每个版本都能在性能和精度之间实现不同的平衡。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

步骤 3:使用导出的 CoreML 模型运行推理

导出为 CoreML 格式后,YOLO11 可以轻松集成到 iOS 应用程序中,从而在 iPhone、iPad 和 Mac 等设备上实现实时计算机视觉任务,如物体检测

例如,下面的代码片段演示了如何加载导出的 CoreML 模型并执行推理。推理是使用训练有素的模型对新数据进行预测的过程。在本例中,模型分析了一家人玩球的图像。

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

运行代码后,输出图像将保存在 "runs/detect/predict "文件夹中。

图 2.使用以 CoreML 格式导出的 YOLO11 模型检测物体。图片由作者提供。

导出的 CoreML 模型可用于何处?

将 YOLO11 输出到 CoreML 可以灵活地构建各种计算机视觉应用程序,这些应用程序可以在 iPhone、iPad 和 Mac 上高效运行。接下来,让我们来看看这种集成在现实世界中特别有用的一些应用场景。

由 CoreML 模型驱动的增强现实和游戏应用程序

增强现实(AR)通过将虚拟元素叠加到实时摄像头视图上,将数字内容与现实世界融合在一起。它正在成为移动游戏的重要组成部分,创造出更具互动性和沉浸感的体验。

通过将 YOLO11 导出为 CoreML 格式,iOS 开发人员可以制作 AR 游戏,利用手机摄像头识别长椅、树木或标志等现实世界中的物体。然后,游戏可以在这些物体上叠加虚拟物品,如硬币、线索或生物,以增强玩家周围的环境。

在幕后,这是通过对象检测和对象跟踪来实现的。YOLO11 能实时检测和识别物体,而跟踪功能则能在摄像机移动时保持这些物体在视野中,确保虚拟元素与现实世界保持一致。

玩家可以对准手机,探索周围环境,并与所看到的事物互动,收集物品或完成快速挑战。所有这些都可以直接在设备上运行,无需网络连接,体验流畅且引人入胜。

与 CoreML 模型集成的 iOS 应用程序,用于实时 ANPR

自动车牌识别(ANPR)是一种计算机视觉应用程序,用于检测和读取车辆牌照。它通常用于安防、交通监控和门禁系统。借助 CoreML 和 YOLO11 等模型,ANPR 现在可以在 iOS 设备上高效运行。 

在 iPhone 上安装 ANPR 应用程序在注重安全的环境中尤其有用。例如,它可以帮助团队快速确定进入禁区的车辆是否经过授权。

这种应用程序可以使用通过 CoreML 集成的视觉人工智能模型(如 YOLO11)来检测车辆,并使用设备的摄像头实时定位车牌。一旦检测到车牌,光学字符识别(OCR)技术就能读取车牌号码。然后,该应用程序可以将该号码与本地或云端数据库进行比较,以验证车辆是否可以进入或标记未经授权的车辆。

图 3.视觉人工智能可用于检测和读取车牌号码。(资料来源).

注重无障碍的应用程序可利用 CoreML 模型

人工智能对无障碍环境产生了巨大影响,帮助视障人士打破障碍。借助 CoreML 等工具和 YOLO11 等计算机视觉模型,开发人员可以构建能够实时描述用户周围世界的 iOS 应用程序,从而使日常工作变得更轻松、更独立。

例如,视障人士可以将 iPhone 摄像头对准周围环境。该应用程序利用物体检测来识别车辆、人物或路标等关键要素,并将看到的内容娓娓道来。这可用于导航繁忙的街道或了解紧急情况等情况。

图 4.使用 YOLO11 检测人员的示例

主要收获

将 YOLO11 输出为 CoreML 格式为实时应用创造了新的机会,包括 iOS 设备上的离线对象检测。从农业、安全性到可访问性,这一组合使开发人员能够构建完全在设备上运行的智能、高效和注重隐私的应用程序。

只需几个简单的步骤,您就可以转换 YOLO11 模型,为 iPhone 添加可靠的计算机视觉功能。最重要的是,它无需互联网连接即可运行。总之,CoreML 集成为日常移动应用程序带来了先进人工智能的力量,使其速度更快、反应更灵敏,并可随时随地运行。

想了解有关人工智能的更多信息?探索我们的GitHub 存储库,与我们的社区建立联系,了解我们的许可选项,启动您的计算机视觉项目。在我们的解决方案页面,了解零售业的人工智能物流业的计算机视觉等创新如何塑造未来。

让我们共同打造人工智能的未来

开始您的未来机器学习之旅

免费开始
链接复制到剪贴板