深圳尤洛视觉
深圳
立即加入

通过 CoreML 将 Ultralytics YOLO11 带到 Apple 设备

Abirami Vina

4 分钟阅读

2025年7月30日

了解使用 CoreML 将 Ultralytics YOLO11 应用于 Apple 设备是多么容易,以及如何为实时 iOS 应用程序启用快速离线计算机视觉任务。

随着 Apple 推出 Apple Intelligence 等功能,设备端 AI 显然正在成为我们使用手机的核心部分。对于开发者来说,这种转变意味着用户正在接受使用计算机视觉等功能来提供更智能、更快速响应体验的 iOS 应用程序。

计算机视觉是一种人工智能 (AI),它使计算机能够理解和分析视觉信息,例如图像或视频。在移动设备上,它可以实时用于通过手机摄像头检测、分类和与物体交互。像 Ultralytics YOLO11 这样的视觉 AI 模型可以根据您的应用程序需求进行定制训练,以识别特定物体。 

然而,YOLO11 无法直接在 iOS 上运行。为了在 iPhone 或其他 Apple 设备上部署 YOLO11,特别是为了离线使用,需要将其转换为针对 Apple 生态系统优化的格式。 

这正是 CoreML 旨在解决的问题。CoreML 是 Apple 的机器学习框架,旨在在本地运行模型并无缝集成到 iOS 和 macOS 应用程序中。Ultralytics 支持的 CoreML 集成 可以轻松导出模型,以便在 iPhone 上进行本地部署。

在本文中,我们将仔细研究如何将您的 YOLO11 模型导出为 CoreML 格式。我们还将探讨实时用例,这些用例展示了直接在 iOS 设备上运行计算机视觉模型的优势。让我们开始吧!

什么是 CoreML?

CoreML是由Apple开发的一种机器学习 (ML) 框架,它使开发人员能够将训练好的 ML 模型直接集成到 Apple 生态系统中的应用程序中,包括 iOS (iPhone 和 iPad)、macOS (Mac)、watchOS (Apple Watch) 和 tvOS (Apple TV)。它的设计旨在使机器学习在 Apple 设备上更易于访问和高效,从而使模型可以直接在设备上运行,而无需互联网连接。

CoreML 的核心是一个统一的模型格式,它支持各种 AI 任务,例如图像分类、对象检测、语音识别和自然语言处理。该框架经过优化,可以充分利用 Apple 的硬件,使用 CPU(中央处理器)、GPU(图形处理器)和 ANE(Apple 神经引擎)来快速有效地执行模型。

CoreML 支持各种模型类型,并且与流行的机器学习库兼容,包括 TensorFlow、PyTorch、scikit-learn、XGBoost 和 LibSVM。这使得开发人员可以更轻松地将高级 ML 功能引入到日常应用程序中,同时确保它们在 Apple 设备上平稳运行。

图 1. CoreML 支持来自其他流行的 AI 框架的模型 (来源)。

CoreML的关键特性

以下是一些使CoreML成为将人工智能集成到Apple应用程序中的可靠工具的关键特性:

  • 模型优化: CoreML支持量化和剪枝等压缩技术,以减小模型大小并提高运行时效率。
  • 设备端个性化: Apple 的 ML 框架支持设备端个性化,使模型能够根据用户交互在本地进行训练和更新。
  • 异步预测:此框架允许您的应用程序在后台运行预测,在处理 AI 任务时保持用户界面流畅且响应迅速。
  • 多任务学习:CoreML支持可以同时执行多个任务的模型,例如在同一图像中检测对象和识别文本。

如何将 YOLO11 导出为 CoreML 格式

现在我们对CoreML框架有了更好的了解,接下来让我们了解如何使用Ultralytics支持的CoreML集成将YOLOv8模型导出为CoreML格式。

步骤 1:设置您的环境

要使用 Ultralytics 提供的集成功能,首先需要安装 Ultralytics Python 包。它是一个轻量级、易于使用的库,可以简化训练、评估、预测和导出 Ultralytics YOLO 模型等任务。

您可以通过在命令终端中运行“pip install ultralytics”来安装 Ultralytics Python 包。如果您使用的是 Jupyter Notebook 或 Google Colab 等环境,请在命令前加上感叹号 (!): “!pip install ultralytics”。

如果在安装过程中或导出到 CoreML 时遇到任何问题,请查看 Ultralytics 官方文档或常见问题解答以获取帮助。

步骤 2:将 YOLO11 导出到 CoreML

成功安装软件包后,您就可以加载 YOLO11 模型并将其转换为 CoreML 格式。

如果您不确定要使用哪个预训练的 YOLO11 模型,您可以浏览 Ultralytics 支持的模型范围。每个模型在速度、大小和准确性之间提供了不同的平衡,您可以选择最适合您项目的模型。如果您已经在自己的数据集上训练了一个模型,您也可以使用自定义训练的 YOLO11 模型。

在下面的代码片段中,使用了名为“yolo11n.pt”的预训练YOLO11模型文件。在导出过程中,它被转换为名为“yolo11n.mlpackage”的CoreML包。

“yolo11n”模型是 nano 版本,针对速度和低资源使用进行了优化。根据您的项目需求,您还可以选择其他模型尺寸,例如“s”(小型)、“m”(中型)、“l”(大型)或“x”(超大型)。每个版本都在性能和准确性之间提供不同的平衡。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

步骤 3:使用导出的 CoreML 模型运行推理

导出为 CoreML 格式后,YOLO11 可以轻松集成到 iOS 应用程序中,从而在 iPhone、iPad 和 Mac 等设备上实现实时计算机视觉任务,如 对象检测

例如,下面的代码片段演示了如何加载导出的 CoreML 模型并执行推理。推理是使用经过训练的模型对新数据进行预测的过程。在本例中,该模型分析了一家人玩球的图像。

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

运行代码后,输出图像将保存在“runs/detect/predict”文件夹中。

图 2. 使用 CoreML 格式导出的 YOLO11 模型来检测物体。作者供图。

导出的 CoreML 模型可以在哪里使用?

将 YOLO11 导出到 CoreML 带来了构建各种计算机视觉应用程序的灵活性,这些应用程序可以在 iPhone、iPad 和 Mac 上高效运行。 接下来,让我们看看一些这种集成特别有用的实际场景。

由 CoreML 模型驱动的增强现实和游戏应用

增强现实(AR)通过将虚拟元素叠加到实时相机视图上,将数字内容与现实世界融合在一起。 它正在成为手机游戏的关键组成部分,创造更具互动性和沉浸感的体验。

通过将 YOLO11 导出为 CoreML 格式,iOS 开发者可以使用手机的摄像头构建 AR 游戏,识别现实世界中的物体,如长椅、树木或标志。然后,游戏可以在这些物体上叠加虚拟物品,如硬币、线索或生物,以增强玩家的周围环境。

在幕后,这通过目标检测和目标跟踪来实现。YOLO11 实时检测和识别目标,而跟踪则在摄像头移动时保持这些目标在视野中,确保虚拟元素与现实世界保持对齐。

玩家可以利用手机扫描周围环境,与所见之物互动,收集物品或完成快速挑战。所有这些操作都可以在设备上直接运行,无需互联网连接,从而带来流畅且引人入胜的体验。

与 CoreML 模型集成的 iOS 应用程序,用于实时 ANPR

自动车牌识别(ANPR)是一种用于检测和读取车辆牌照的计算机视觉应用。 它通常用于安全、交通监控和访问控制系统。 借助 CoreML 和 YOLO11 等模型,ANPR 现在可以在 iOS 设备上高效运行。 

在安全至上的环境中,iPhone 上的车牌识别 (ANPR) 应用程序尤其有用。例如,它可以帮助团队快速确定进入限制区域的车辆是否已获得授权。

此类应用程序可以使用通过 CoreML 集成的 YOLO11 等视觉 AI 模型,以使用设备的摄像头实时检测车辆并定位其牌照。检测到牌照后,光学字符识别 (OCR) 技术可以读取牌照号码。然后,该应用程序可以将此号码与本地或基于云的数据库进行比较,以验证访问权限或标记未经授权的车辆。

图 3. 视觉 AI 可用于检测和读取车牌号码。(来源)。

专注于辅助功能的应用程序可以利用 CoreML 模型

AI对可访问性产生了巨大影响,帮助打破了视力障碍人士的障碍。借助CoreML等工具和YOLO11等计算机视觉模型,开发人员可以构建iOS应用程序,实时描述用户周围的世界,从而使日常任务更加轻松和独立。

例如,视力障碍人士可以将他们的 iPhone 摄像头对准周围环境。该应用程序使用目标检测来识别关键元素,如车辆、行人或街道标志,并叙述它所看到的内容。这可以用于诸如在繁忙的街道上导航或理解紧急情况等场景。

图 4. 使用 YOLO11 检测人员的示例

主要要点

将 YOLO11 导出为 CoreML 格式为实时应用程序创造了新的机会,包括在 iOS 设备上的离线目标检测。 从农业和安全到可访问性,这种组合允许开发人员构建完全在设备上运行的智能、高效和注重隐私的应用程序。

只需几个简单的步骤,您就可以转换您的 YOLO11 模型,并为 iPhone 添加可靠的计算机视觉功能。最重要的是,它无需互联网连接即可工作。总的来说,CoreML 集成将先进 AI 的强大功能带到日常移动应用程序中,使其更快、响应更快,并随时随地运行。

想了解更多关于 AI 的信息吗?浏览我们的 GitHub 仓库,与 我们的社区 交流,并查看 我们的许可选项,以启动您的计算机视觉项目。在我们的解决方案页面上,了解 零售业中的 AI物流业中的计算机视觉 等创新如何塑造未来。

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始
链接已复制到剪贴板