YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

効率的なエッジAIのためにRockchipにUltralytics YOLO11をデプロイ

Abirami Vina

5分で読めます

2025年2月12日

効率的なエッジAI、AIアクセラレーション、リアルタイムオブジェクト検出のために、RKNN Toolkitを使用してUltralytics YOLO11をRockchipにデプロイする方法を探ります。

AIコミュニティで最近話題になっているのは、特にコンピュータビジョンにおけるエッジAIです。AI駆動型アプリケーションの成長に伴い、電力とコンピューティングリソースが限られた組み込みデバイス上でモデルを効率的に実行する必要性が高まっています。 

例えば、ドローンはリアルタイムナビゲーションにVision AIを使用し、スマートカメラはオブジェクトを即座に検出し、産業オートメーションシステムはクラウドコンピューティングに依存せずに品質管理を実行します。これらのアプリケーションは、リアルタイムのパフォーマンスと低遅延を確保するために、エッジデバイス上で直接高速かつ効率的なAI処理を必要とします。ただし、エッジデバイスでAIモデルを実行することは必ずしも容易ではありません。AIモデルは、多くの場合、多くのエッジデバイスが処理できるよりも多くの電力とメモリを必要とします。

RockchipのRKNN Toolkitは、Rockchip搭載デバイス向けに深層学習モデルを最適化することで、この問題を解決します。専用のニューラルプロセッシングユニット(NPU)を使用して推論を高速化し、CPUやGPU処理と比較して、レイテンシと消費電力を削減します。 

Vision AIコミュニティは、RockchipベースのデバイスでUltralytics YOLO11を実行することを熱望しており、その声にお応えしました。YOLO11をRKNNにエクスポートするサポートを追加しました。この記事では、RKNNへのエクスポートの仕組みと、Rockchip搭載デバイスへのYOLO11のデプロイがなぜ革新的なのかを探ります。

RockchipとRKNN Toolkitとは?

Rockchipは、システムオンチップ(SoC)を設計する企業です。SoCは、多くの組み込みデバイスを動作させる小型ながら強力なプロセッサです。これらのチップは、CPU、GPU、および物体検出や画像処理に依存するVision AIアプリケーションから、一般的なコンピューティングタスクまですべてを処理するニューラルプロセッシングユニット(NPU)を組み合わせています。

Rockchip SoCは、シングルボードコンピュータ(SBC)、開発ボード、産業用AIシステム、スマートカメラなど、さまざまなデバイスで使用されています。多くの有名なハードウェアメーカー(Radxa、ASUS、Pine64、Orange Pi、Odroid、Khadas、Banana Pi)が、Rockchip SoCを搭載したデバイスを構築しています。これらのボードは、パフォーマンス、電力効率、および手頃な価格のバランスが取れているため、エッジAIおよびコンピュータビジョンアプリケーションで人気があります。

__wf_reserved_inherit
Fig 1. Rockchip搭載デバイスの例。

AIモデルがこれらのデバイス上で効率的に実行できるように、RockchipはRKNN(Rockchip Neural Network)ツールキットを提供しています。これにより、開発者は深層学習モデルを変換および最適化して、Rockchipのニューラルプロセッシングユニット(NPU)を使用できます。 

RKNNモデルは、低遅延推論と効率的な電力使用のために最適化されています。モデルをRKNNに変換することで、開発者はRockchip搭載デバイス上でより高速な処理速度、低消費電力、および改善された効率を実現できます。

RKNNモデルは最適化されています

RKNNモデルがRockchip搭載デバイスでAIパフォーマンスをどのように向上させるかについて詳しく見ていきましょう。 

広範なコンピューティングタスクを処理するCPUやGPUとは異なり、RockchipのNPUは深層学習に特化して設計されています。AIモデルをRKNN形式に変換することで、開発者はNPU上で直接推論を実行できます。これにより、RKNNモデルは、迅速かつ効率的な処理が不可欠なリアルタイムのコンピュータビジョンタスクに特に役立ちます。

NPUは、ニューラルネットワークの計算を並行して処理するように構築されているため、AIタスクにおいてCPUやGPUよりも高速かつ効率的です。CPUはタスクを一度に1ステップずつ処理し、GPUはワークロードを複数のコアに分散しますが、NPUはAI固有の計算をより効率的に実行するように最適化されています。 

その結果、RKNNモデルはより高速に動作し、消費電力が少なくなるため、バッテリ駆動デバイス、スマートカメラ、産業オートメーション、およびリアルタイムの意思決定を必要とするその他のエッジAIアプリケーションに最適です。

Ultralytics YOLOモデルの概要

Ultralytics YOLO (You Only Look Once) モデルは、オブジェクト検出、インスタンスセグメンテーション、画像分類などのリアルタイムコンピュータビジョンタスク向けに設計されています。それらは、その速度、精度、および効率で知られており、農業、製造、ヘルスケア、自律システムなどの業界で広く使用されています。 

これらのモデルは、時間の経過とともに大幅に改善されています。たとえば、UltralyticsのYOLOv5は、PyTorchでオブジェクト検出をより簡単に使用できるようにしました。次に、UltralyticsのYOLOv8は、ポーズ推定や画像分類などの新機能を追加しました。現在、YOLO11は、より少ないリソースを使用しながら精度を向上させることで、さらに進化しています。実際、YOLO11mは、YOLOv8mよりも22%少ないパラメータを使用しながら、COCOデータセットでより優れたパフォーマンスを発揮し、より正確かつ効率的になっています。

__wf_reserved_inherit
図2. YOLO11を使用したオブジェクト検出。

Ultralytics YOLOモデルは、複数の形式へのエクスポートもサポートしており、さまざまなプラットフォームでの柔軟なデプロイが可能です。これらの形式には、ONNX、TensorRT、CoreML、OpenVINOが含まれており、開発者はターゲットハードウェアに基づいてパフォーマンスを最適化できます。

YOLO11のRKNNモデル形式へのエクスポートがサポートされたことで、YOLO11はRockchipのNPUを活用できるようになりました。最小のモデルであるYOLO11n(RKNN形式)は、画像あたり99.5msという優れた推論時間を実現し、組み込みデバイスでもリアルタイム処理を可能にします。

YOLO11モデルをRKNN形式にエクスポートする

現在、YOLO11の物体検出モデルはRKNN形式にエクスポートできます。また、今後のアップデートで他のコンピュータビジョンタスクとINT8量子化のサポートを追加する予定ですので、ご期待ください。 

YOLO11をRKNN形式にエクスポートするプロセスは簡単です。<a href="https://docs.ultralytics.com/modes/train/">カスタムトレーニングされたYOLO11モデルをロードし、ターゲットのRockchipプラットフォームを指定して、数行のコードでRKNN形式に変換できます。RKNN形式は、RK3588、RK3566、RK3576などのさまざまなRockchip SoCと互換性があり、幅広いハードウェアサポートを保証します。

__wf_reserved_inherit
図3:YOLO11をRKNNモデル形式にエクスポート。

RockchipベースのデバイスへのYOLO11のデプロイ

エクスポートが完了すると、RKNNモデルをRockchipベースのデバイスにデプロイできます。モデルをデプロイするには、エクスポートされたRKNNファイルをRockchipデバイスにロードし、推論(トレーニング済みのAIモデルを使用して新しい画像またはビデオを分析し、リアルタイムでオブジェクトを検出するプロセス)を実行するだけです。わずか数行のコードで、画像またはビデオストリームからオブジェクトの識別を開始できます。

__wf_reserved_inherit
図4. エクスポートされたRKNNモデルを使用した推論の実行。

YOLO11とRockchipのエッジAIアプリケーション

YOLO11がRockchip対応デバイス上で実際にどのように展開できるかをより良く理解するために、主要なエッジAIアプリケーションをいくつか見ていきましょう。

Rockchipプロセッサは、Androidベースのタブレット、開発ボード、および産業用AIシステムで広く使用されています。Android、Linux、およびPythonのサポートにより、さまざまな業界向けのVision AI駆動型ソリューションを簡単に構築および展開できます。

YOLO11を搭載した堅牢なタブレット

Rockchip搭載デバイスでYOLO11を実行する一般的なアプリケーションは、堅牢なタブレットです。これらは、倉庫、建設現場、産業環境などの過酷な環境向けに設計された、耐久性のある高性能タブレットです。これらのタブレットは、物体検出を活用して効率と安全性を向上させることができます。

例えば、倉庫ロジスティクスでは、作業員はYOLO11を搭載したRockchipタブレットを使用して、在庫を自動的にスキャンおよび検出できるため、人的エラーが減り、処理時間が短縮されます。同様に、建設現場では、これらのタブレットを使用して、作業員が必要な安全装備(ヘルメットやベストなど)を着用しているかどうかを検出できるため、企業は規制を施行し、事故を防ぐことができます。

__wf_reserved_inherit
図5. YOLO11を使用した安全装備の検出。

品質管理のための産業用AI 

製造および自動化に関して言えば、Rockchipを搭載した産業用ボードは、品質管理およびプロセス監視において大きな役割を果たすことができます。産業用ボードは、産業環境における組み込みシステム向けに設計された、コンパクトで高性能なコンピューティングモジュールです。これらのボードには通常、プロセッサ、メモリ、I/Oインターフェース、およびセンサー、カメラ、自動機械と統合できる接続オプションが含まれています。

これらのボードでYOLO11モデルを実行することで、生産ラインをリアルタイムで分析し、問題を即座に特定して効率を向上させることができます。たとえば、自動車製造では、RockchipハードウェアとYOLO11を使用するAIシステムは、自動車が組立ラインを下るにつれて、傷、部品のずれ、または塗装の欠陥を検出できます。これらの欠陥をリアルタイムで特定することにより、製造業者は無駄を減らし、生産コストを削減し、車両が顧客に届く前に、より高い品質基準を確保できます。

RockchipベースのデバイスでYOLOv8を実行する利点

Rockchipベースのデバイスは、パフォーマンス、コスト、および効率のバランスが優れており、エッジAIアプリケーションでYOLO11を展開するための優れた選択肢となっています。

RockchipベースのデバイスでYOLO11を実行する利点をいくつか紹介します。

  • AIパフォーマンスの向上:Rockchip搭載デバイスは、Raspberry PiのようなCPUベースのボードよりも効率的にAI推論を処理し、より高速な物体検出と低遅延を実現します。
  • 費用対効果の高いソリューション: AIを試験的に導入し、強力なパフォーマンスを維持しながら予算に優しいオプションが必要な場合、Rockchipは優れた選択肢となります。速度や効率を損なうことなく、YOLO11を実行できる手頃な方法を提供します。
  • エネルギー効率: Rockchip搭載デバイスでコンピュータビジョンモデルを実行すると、GPUよりも消費電力が少なく、バッテリー駆動デバイスや組み込みAIアプリケーションに最適です。

主なポイント

Ultralytics YOLO11は、ハードウェアアクセラレーションとRKNN形式を活用することで、Rockchipベースのデバイス上で効率的に実行できます。これにより、推論時間が短縮され、パフォーマンスが向上し、リアルタイムのコンピュータビジョンタスクやエッジAIアプリケーションに最適です。

RKNN Toolkitは、量子化や微調整などの主要な最適化ツールを提供し、YOLO11モデルがRockchipプラットフォームで適切に動作することを保証します。エッジAIの採用が拡大するにつれて、効率的なオンデバイス処理のためにモデルを最適化することが不可欠になります。適切なツールとハードウェアを使用することで、開発者はさまざまな業界でコンピュータビジョンソリューションの新たな可能性を切り開くことができます。 

コミュニティに参加し、GitHubリポジトリを調べて、AIの詳細をご覧ください。農業におけるコンピュータビジョンヘルスケアにおけるAIがソリューションページを訪問してどのようにイノベーションを推進しているかをご覧ください。また、ライセンスオプションをチェックして、今すぐVision AIソリューションの構築を開始してください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました