Yolo 深圳
深セン
今すぐ参加

Ultralytics YOLO11 CoreML経由でAppleデバイスに導入

Abirami Vina

4分で読めます

2025年7月30日

CoreML 使用してUltralytics YOLO11 Appleデバイスに導入し、リアルタイムiOS アプリのオフラインコンピュータビジョンタスクを高速化する方法をご覧ください。

AppleがApple Intelligenceのような機能を導入したことで、オンデバイスAIが私たちの携帯電話の使い方の中心的な部分になりつつあることは明らかです。デベロッパーにとって、この変化は、よりスマートで応答性の高いエクスペリエンスを提供するためにコンピュータビジョンのような機能を使用するiOS アプリをユーザーが採用することを意味します。

コンピュータ・ビジョンは人工知能(AI)の一種で、画像や動画などの視覚情報をコンピュータが理解・分析することを可能にする。モバイル機器では、携帯電話のカメラを通して物体をdetect、classify、対話するためにリアルタイムで使用することができる。ビジョンAIモデル Ultralytics YOLO11のようなビジョンAIモデルは、アプリのニーズに応じて、特定のオブジェクトを認識するようにカスタムトレーニングすることができます。 

しかし、YOLO11 iOS 上ですぐに動作するように設定されていない。YOLO11 iPhoneやその他のアップル製デバイスで、特にオフラインで使用するために展開するには、アップルのエコシステムに最適化されたフォーマットに変換する必要がある。 

CoreML 、まさにこのような問題を解決するために開発された。CoreML Appleの機械学習フレームワークで、モデルをローカルで実行し、iOS macOSアプリケーションにシームレスに統合するために構築されています。UltralyticsサポートするCoreML 統合により、iPhoneでのローカル展開のためにモデルを簡単にエクスポートすることができます。

この記事では、YOLO11 モデルをCoreML フォーマットにエクスポートする方法を詳しく見ていきます。また、iOS デバイス上でコンピュータビジョンモデルを直接実行することの利点を示すリアルタイムのユースケースを探ります。それでは始めましょう!

CoreML?

CoreML アップルが開発した機械学習(ML)フレームワークで、iOS (iPhoneとiPad)、macOS(Mac)、watchOS(Apple Watch)、tvOS(Apple TV)を含むアップルのエコシステム全体のアプリに、開発者が学習済みのMLモデルを直接統合できるようにする。これは、インターネット接続を必要とせず、デバイス上で直接モデルを実行できるようにすることで、アップルのデバイス上で機械学習を利用しやすく、効率的にすることを目的としています。

CoreML 中核をなすのは、画像分類、物体検出、音声認識、自然言語処理など、幅広いAIタスクをサポートする統一モデルフォーマットです。このフレームワークは、アップルのハードウェアを最大限に活用するように最適化されており、CPU (中央演算処理装置)、GPU (グラフィック処理装置)、ANE(Apple Neural Engine)を使用して、モデルを迅速かつ効率的に実行します。

CoreML 様々なモデルタイプをサポートし、TensorFlow、PyTorch、scikit-learn、XGBoost、LibSVMなどの一般的な機械学習ライブラリと互換性があります。これにより、開発者は、Appleデバイス間でスムーズに動作することを保証しながら、日常的なアプリケーションに高度なML機能を導入することが容易になります。

図1.CoreML 他の一般的なAIフレームワークのモデルをサポートしている(出典)。

CoreML主な特徴

CoreML アップル製アプリにAIを統合するための信頼できるツールである主な特徴をいくつかご紹介します:

  • モデル最適化: CoreML 、モデルサイズを縮小し、実行効率を向上させるために、量子化やプルーニングのような圧縮技術をサポートしています。
  • オンデバイスのパーソナライズ: AppleのMLフレームワークは、オンデバイスのパーソナライズをサポートしており、ユーザーのインタラクションに基づいてローカルでモデルをトレーニングおよび更新できます。
  • 非同期予測:このフレームワークを使用すると、アプリはバックグラウンドで予測を実行できるため、AIタスクの処理中にユーザーインターフェイスをスムーズかつ応答性の高い状態に保つことができます。
  • マルチタスク学習:CoreML 、同じ画像内の物体の検出とテキストの認識のように、複数のタスクを同時に実行できるモデルをサポートしている。

YOLO11 CoreML 形式にエクスポートする方法

CoreML フレームワークの理解が深まったところで、Ultralytics サポートするCoreML インテグレーションを使って、YOLO11 モデルをCoreML フォーマットにエクスポートする方法を説明しよう。

ステップ1:環境のセットアップ

Ultralytics提供する統合機能を利用するには、まずUltralytics Python パッケージをインストールします。これは軽量で使いやすいライブラリで、Ultralytics YOLO モデルのトレーニング、評価、予測、エクスポートなどのタスクを簡素化します。

コマンドターミナルで "pip installultralytics"を実行すれば、Ultralytics Python パッケージをインストールできる。Jupyter NotebookやGoogle Colabのような環境を使用している場合は、コマンドの前に感嘆符(!)「pip installultralytics"。

インストール中やCoreMLエクスポート中に問題が発生した場合は、Ultralytics 公式ドキュメントまたは「よくある問題」ガイドを参照してください。

ステップ2:YOLO11 CoreMLエクスポートする

パッケージが正常にインストールされたら、YOLO11 モデルをロードし、CoreML フォーマットに変換する準備ができました。

どの訓練済みYOLO11 モデルを使用すればよいかわからない場合は、Ultralytics サポートする さまざまなモデルを調べることができます。それぞれスピード、サイズ、精度のバランスが異なるので、プロジェクトに最適なものを選ぶことができます。また、独自のデータセットでトレーニングしたカスタムYOLO11 モデルを使用することもできます。

以下のコード・スニペットでは、"yolo11n.pt "という名前の事前に訓練されたYOLO11 モデル・ファイルを使用しています。エクスポートの過程で、"yolo11n.mlpackage "というCoreML パッケージに変換されます。

"yolo11n"モデルはナノバージョンであり、速度と低いリソース使用量のために最適化されています。プロジェクトのニーズに応じて、smallの"s"、mediumの"m"、largeの"l"、またはextra-largeの"x"など、他のモデルサイズを選択することもできます。各バージョンは、パフォーマンスと精度の異なるバランスを提供します。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

ステップ3:エクスポートされたCoreML モデルを用いた推論の実行

CoreML フォーマットにエクスポートした後、YOLO11 iOS アプリケーションに簡単に統合することができ、iPhone、iPad、Macなどのデバイス上で物体検出などのリアルタイムコンピュータビジョンタスクを可能にします。

例えば、以下のコード・スニペットは、エクスポートされたCoreML モデルをロードして推論を実行する方法を示しています。推論とは、新しいデータに対して予測を行うために学習済みモデルを使用するプロセスです。この場合、モデルはボールで遊ぶ家族の画像を分析します。

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

コード実行後、出力画像は "detect/detect/predict "フォルダに保存される。

図2.CoreML 形式でエクスポートされたYOLO11 モデルを使って物体をdetect する。画像は筆者による

エクスポートされたCoreML モデルはどこで使用できますか?

YOLO11 CoreML エクスポートすることで、iPhone、iPad、Macで効率的に動作する多様なコンピュータ・ビジョン・アプリケーションを柔軟に構築できるようになる。次に、この統合が特に役立つ実際のシナリオを見てみましょう。

CoreML モデルによる拡張現実とゲームアプリ

拡張現実(AR)は、仮想要素をライブカメラビューに重ねて、デジタルコンテンツと現実世界を融合させます。モバイルゲームの重要な一部となり、よりインタラクティブで没入感のある体験を生み出しています。

CoreML フォーマットにエクスポートされたYOLO11 使えば、iOS デベロッパーは、携帯電話のカメラを使って、ベンチ、木、標識などの現実世界のオブジェクトを認識するARゲームを作ることができる。ゲームは、これらのオブジェクトの上にコイン、手がかり、生き物などの仮想アイテムをオーバーレイして、プレイヤーの周囲の環境を強化することができます。

舞台裏では、オブジェクト検出とオブジェクト・トラッキングを使用しています。YOLO11 リアルタイムでオブジェクトを検出・識別し、トラッキングはカメラが移動してもオブジェクトを視界に収め続け、バーチャル要素が現実世界と一直線になるようにします。

プレイヤーは、携帯電話をかざして周囲を探索し、目に見えるものとインタラクトしてアイテムを収集したり、簡単なチャレンジを完了したりできます。これらすべては、インターネット接続を必要とせずにデバイス上で直接実行できるため、スムーズで魅力的な体験が可能です。

リアルタイムAMPRのためのCoreML モデルと統合されたiOS アプリ

自動ナンバープレート認識(ANPR)は、自動車のナンバープレートをdetect し、読み取るために使用されるコンピュータビジョンアプリケーションです。セキュリティ、交通監視、入退室管理システムなどでよく使われています。CoreML YOLO11ようなモデルにより、ANPRはiOS デバイス上で効率的に実行できるようになりました。 

iPhoneにANPRアプリがあると、セキュリティ重視の環境で特に役立ちます。たとえば、制限区域に入る車両が許可されているかどうかをチームが迅速に判断するのに役立ちます。

このようなアプリは、CoreML統合されたYOLO11ようなビジョンAIモデルを使用して、デバイスのカメラを使ってリアルタイムで車両をdetect し、ナンバープレートを見つけることができる。ナンバープレートが検出されると、光学式文字認識(OCR)技術によってナンバーが読み取られる。アプリはこのナンバーをローカルまたはクラウドベースのデータベースと比較し、アクセスを確認したり、未承認車両にフラグを立てたりすることができる。

図3.ビジョンAIはナンバープレートのdetect 読み取りに使用できる。(出典)。

アクセシビリティを重視したアプリはCoreML モデルを活用できる

AIはアクセシビリティに大きな影響を与え、視覚障害者の障壁を取り除くのに役立っている。CoreML ようなツールやYOLO11ようなコンピュータビジョンモデルを使えば、開発者はユーザーを取り巻く世界をリアルタイムで描写するiOS アプリを作ることができ、日常的な作業をより簡単に、より自立したものにすることができます。

例えば、視覚障碍のある人は、iPhoneのカメラを周囲に向けることができます。アプリは物体検出を使用して、車両、人、道路標識などの主要な要素を認識し、見ているものをナレーションします。これは、交通量の多い道路をナビゲートしたり、緊急事態を理解したりするような状況で使用できます。

図4.YOLO11 使った人物detect 例。

主なポイント

YOLO11 CoreML フォーマットにエクスポートすることで、iOS デバイス上でのオフライン物体検出を含むリアルタイムアプリケーションの新たな可能性が生まれます。農業やセキュリティからアクセシビリティに至るまで、この組み合わせにより、開発者はスマートで効率的、プライバシー重視のアプリを構築し、デバイス上で完全に実行することができる。

わずか数ステップで、YOLO11 モデルを変換し、iPhoneに信頼性の高いコンピュータ・ビジョン機能を追加することができます。何よりも、インターネット接続がなくても動作します。全体として、CoreML 統合は、高度なAIのパワーを日常的なモバイルアプリにもたらし、より高速で応答性が高く、どこでも実行できるようにします。

AIについてもっと知りたいですか?GitHubリポジトリを探索し、コミュニティとつながり、ライセンスオプションを確認して、コンピュータビジョンプロジェクトを始めましょう。ソリューションページで、小売におけるAI物流におけるコンピュータビジョンなどのイノベーションがどのように未来を形作っているかをご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる