NVIDIA Jetson Orin Nano Super上のUltralytics YOLO11:高速で効率的

アビラミ・ヴィナ

4 min read

2025年1月9日

Ultralytics YOLO11をNVIDIA Jetson Orin Nano Superに導入することで、高度なAIアプリケーションのための印象的なベンチマークとGPUアクセラレーション性能がどのように実現されるかをご覧ください。

2024年12月17日に発売されたNVIDIA JetsonOrin Nano Super Developer Kitは、エッジコンピューティングに高度な機能をもたらすために設計された、コンパクトながら強力なジェネレーティブAIスーパーコンピュータです。リアルタイム処理を容易にし、クラウドコンピューティングを不要にします。NVIDIA Jetson Orin Nano Superにより、開発者はローカル環境で効率的に動作する手頃なインテリジェント・システムを構築することができます。

Jetson Orin Nano Superは、Ultralytics YOLO 11のようなUltralytics YOLOモデルと組み合わせることで、エッジでの膨大なビジョンAIアプリケーションを処理することができます。特にYOLO11は、物体検出、物体追跡、インスタンス分割などのタスクにおいて、その速度と精度で知られるコンピュータ・ビジョン・モデルです。 

YOLO11の能力をキットの堅牢なGPU(グラフィックス・プロセッシング・ユニット)と組み合わせ、PyTorch、ONNX、NVIDIA TensorRTなどのフレームワークをサポートすることで、高性能な導入が可能になります。この組み合わせは、ロボット工学における物体検出から、スマートスペースや小売システムにおけるリアルタイムの物体追跡まで、AIアプリケーションを作成するための効率的なソリューションを開発者に提供します。

この記事では、NVIDIA Jetson Orin Nanoスーパー・デベロッパー・キットについて、エッジAI向けのUltralytics YOLO11とどのように連携するのか、その性能ベンチマーク、実際のアプリケーション、そして開発者がVision AIプロジェクトを構築する際にどのように役立つのかを紹介する。さっそく始めよう!

NVIDIA Jetson Orin Nano Super Developer Kitとは何ですか?

NVIDIA Jetson Orin Nanoスーパーデベロッパーキットは、小型エッジデバイス向けのジェネレーティブAIを再定義する、コンパクトでありながらパワフルなコンピュータです。最大67TOPS(1秒間に数兆回の演算)のAI性能を実現し、高度なAIプロジェクトに取り組む開発者、学生、ホビイストに最適です。

__wf_reserved_inherit

その主な特徴をいくつか紹介しよう:

  • GPU性能:このデバイスは、1,024個のCUDAコアと32個のTensorコアを含むNVIDIA AmpereアーキテクチャGPUで構築されている。CUDAコアは多数のタスクを同時に処理し、複雑な計算を高速化する一方、テンソルコアはディープラーニングのようなAIタスクに特化している。
  • パワフルなCPU:スピードと効率のバランスを考慮して設計された6コアのArm Cortex-A78AEプロセッサーを搭載。消費電力を抑えながら、複数のタスクをスムーズに処理できる。これは、大規模な電源にアクセスできないローカルで動作するシステムにとって重要です。
  • 効率的なメモリ:このキットには8GBのLPDDR5(Low Power Double Data Rate 5)メモリが搭載されています。LPDDR5は、スピードとエネルギー効率に最適化されたRAM(ランダム・アクセス・メモリー)の一種で、デバイスが過剰な電力を消費することなく、大きなデータセットやリアルタイム処理を処理できるようにします。
    ‍。
  • 接続オプション:高速データ転送用のUSB 3.2ポート、強力なネットワーク接続用のギガビット・イーサネット・ポート、センサーやカメラを統合するためのカメラ・インターフェースを装備しています。
  • AI開発ツール:Jetson Orin Nano SuperはNVIDIA JetPack SDKと連動し、より高速なコンピューティングを実現するCUDAや、AIモデルを最適化するTensorRTなどのツールを提供します。これらのツールにより、開発者はAIアプリケーションを迅速かつ効率的に構築し、展開することが容易になります。

性能ベンチマーク:Jetson Orin Nano Super 対 Orin NX 16GB

NVIDIAの製品に詳しい方であれば、この新しいリリースが既存のNVIDIA Jetson Orin NX 16GB(スーパーモードなし)と比べてどうなのか気になるかもしれません。Jetson Orin NXは全体的に高い性能を提供しますが、Jetson Orin Nanoスーパー・デベロッパー・キットは、わずかなコストで素晴らしい性能を提供します。

 

__wf_reserved_inherit
図2.NVIDIA Jetson Orinのエコシステム。

簡単に概要を説明しよう:

  • AI性能:Jetson Orin Nano Superは、ほとんどのエッジAIタスクに最適な最大67 TOPSを提供し、Jetson Orin NXはより要求の厳しいアプリケーション向けに最大100 TOPSを提供します。
    ‍。
  • メモリ:Jetson Orin Nano Superには、リアルタイム・タスクに十分な8GB LPDDR5が搭載されており、Orin NXはより大きなワークロード用に16GBに倍増されている。
  • 電力効率:Jetson Orin Nano Superは、Jetson Orin NXの高い電力需要に比べ、よりエネルギー効率が高く、7Wから25Wの間で構成可能です。
    ‍。
  • GPU:どちらも、1,024個のCUDAコアと32個のテンソルコアを備えたNVIDIA Ampereアーキテクチャを共有し、強力なGPU性能を実現しています。

YOLO11 with Jetson Orin Nano Super:エッジにビジョンAIをもたらす

Jetson Orin Nano Superの理解が深まったところで、YOLO11がどのようにVision AI機能をエッジにもたらすことができるかを見てみよう。YOLO11を含むUltralyticsのYOLOモデルには、訓練、予測、エクスポートなどの多彩なモードが用意されており、さまざまなAIワークフローに適応できるようになっている。 

例えば、トレーニングモードでは、Ultralytics YOLOモデルは、ユニークなオブジェクトの検出や特定の環境に対する最適化など、特定のアプリケーションのためにカスタムデータセット上で微調整やトレーニングを行うことができます。同様に、 予測モードは推論用に設計されており、リアルタイムのコンピュータビジョンタスクを可能にします。最後に、エクスポートモードを使用して、モデルを展開用に最適化された形式に変換することができます。

__wf_reserved_inherit
図3.Ultralytics YOLOモデルは様々な機能とモードをサポートしている。

エクスポートモードのYOLO11は、以下のようなさまざまなモデル展開オプションをサポートしている:

  • NVIDIA TensorRT: このフォーマットはNVIDIA GPU用に最適化されており、Jetson Orin Nano Super上で高性能かつ低レイテンシの推論を提供する。
    ‍ 以下のURLからダウンロードできる。
  • ONNX(Open Neural Network Exchange):様々なプラットフォームの互換性を保証し、様々なハードウェアやソフトウェアのエコシステムに対応します。
  • トーチスクリプト:このフォーマットは PyTorch ベースのアプリケーションに最適で、PyTorch ワークフローへのシームレスな統合を支援します。
  • TFLite(テンソルフロー・ライト):軽量なAIデプロイメント用に設計されたフォーマットで、モバイルや組み込みシステムに最適。

これらのデプロイメント・フォーマットを使用することで、開発者はJetson Orin Nano Superのハードウェアをフルに活用し、スマート・スペース、ロボット工学、リテール・オートメーションなどのリアルタイム・アプリケーション向けにYOLO11を実行することができる。 

NVIDIA Jetson Orin Nano Super上でのYOLO11のベンチマーク

次に、YOLO11がNVIDIA Jetson Orin Nano Super上でどの程度高速に実行できるかを知るために、PyTorch、ONNX、TensorRTのようなGPUアクセラレーションによるエクスポート形式を使用して、その印象的なパフォーマンスとベンチマークを調べてみましょう。これらのテストにより、Jetson Orin Nano Superは、既存のJetson Orin NX 16GB(スーパーモードなし)に匹敵し、時にはそれを上回るYOLO11モデルの推論時間を達成していることが明らかになりました。

__wf_reserved_inherit
図4.NVIDIA Jetson Orin Nano Super上でのYOLO11のベンチマーク。

さらに注目すべきは、Jetson Orin Nano Superの手頃な価格です。Jetson Orin NX 16GBの半分以下の価格でこのような性能を提供することで、高性能なYOLO11アプリケーションを構築する開発者に卓越した価値を提供します。このコストと性能の組み合わせにより、Jetson Orin Nano SuperはエッジでのリアルタイムVision AIタスクに最適な選択肢となります。

__wf_reserved_inherit
図5.Jetson Orin NX 16GB上でのYOLO11のベンチマーク。

YOLO11とNVIDIA Jetson Orin Nano Superに触れる

Jetson Orin Nano SuperにYOLO11をデプロイすることを楽しみにしているなら、朗報です。NVIDIA JetPack SDKでデバイスをフラッシュした後、ビルド済みのDockerイメージを使用して素早くセットアップするか、必要なパッケージを手動でインストールすることができます。 

より速く、よりシームレスな統合をお望みの方には、アップデートされたJetPack 6 Dockerコンテナが理想的なソリューションです。Dockerコンテナは、特定のソフトウェアを実行するために必要なすべてのツールと依存関係を含む、軽量でポータブルな環境です。 

JetPack 6.1用に最適化されたUltralyticsコンテナには、CUDA 12.6、TensorRT 10.3、PyTorchやTorchVisionなどの必須ツールがプリロードされており、これらはすべてJetsonのARM64アーキテクチャ用に調整されている。このコンテナを使用することで、開発者はセットアップの時間を節約し、YOLO11を使用したVision AIアプリケーションの構築と最適化に集中することができる。

NVIDIA Jetson Orin Nano Super上でのYOLO11のアプリケーション

次のAIプロジェクトのヒントを探している人にとって、エッジベースのコンピューター・ビジョン・アプリケーションの可能性は、私たちの身近なところにある。 

日常生活において、エッジAIは、クラウド処理に依存することなく、リアルタイムで物体を検出・追跡するシステムを可能にすることで、スマートスペースを再定義している。賑やかな都市での交通の監視であれ、公共スペースでの異常な活動の特定であれ、エッジ・ビジョンAIはセキュリティと効率を高めている。

小売業者もエッジAIとコンピュータ・ビジョンを活用している。自動在庫チェックから盗難防止まで、YOLO11のようなモデルは、企業が店舗に直接リアルタイム・ソリューションを導入することを可能にしている。 

同様に、ヘルスケアにおけるAIに関して言えば、エッジベースのモニタリングは、患者の安全性を確保し、異常を検出し、コンプライアンスを維持します。Jetson Orin Nano SuperやYOLO11のようなツールにより、ビジョンAIの未来は、最も必要とされるエッジで展開されます。

要点

YOLO11のようなUltralytics YOLOモデルをNVIDIA Jetson Orin Nano Super Developer Kitに展開することで、エッジAIアプリケーションのための信頼性の高い効率的なソリューションを提供します。堅牢なGPU性能、PyTorch、ONNX、TensorRTのシームレスなサポート、印象的なベンチマークにより、物体検出や追跡などのリアルタイムコンピュータビジョンタスクに適しています。 

Vision AIやハードウェア・アクセラレーションなどの最先端技術における革新とコラボレーションは、私たちの働き方を変革し、開発者がエッジでスケーラブルで高性能なソリューションを構築できるようにします。AIの進歩に伴い、YOLO11やJetson Orin Nano Superのようなツールは、インテリジェントなリアルタイム・ソリューションの実現をかつてないほど容易にしています。

AIに興味がありますか?GitHub リポジトリで、私たちの貢献やコミュニティへの参加をご覧ください。AIを使って農業やヘルスケアなどの業界にどのようなインパクトを与えているかをご覧ください。

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう

無料で始める
クリップボードにコピーされたリンク