Axelera AIとの連携により、Ultralytics Python がサポートする新しいエクスポート統合機能について、効率的で高性能なエッジAIの実現に向けてご確認ください。

Axelera AIとの連携により、Ultralytics Python がサポートする新しいエクスポート統合機能について、効率的で高性能なエッジAIの実現に向けてご確認ください。

Ultralyticsでは、AIの普及が進むにつれ、エッジデバイス上で直接コンピュータビジョンモデルを実行する傾向が強まっているのを目の当たりにしています。オンライン上や最近の技術カンファレンスでの対面での交流を通じて、コンピュータビジョンコミュニティとの対話の中で、データが生成される場所の近くでビジョンAIを展開することへの関心が高まっていることを、当社チームは確認しています。
スマート小売環境や産業用オートメーションからロボティクスに至るまで、リアルタイムの洞察が不可欠になりつつあり、もはやクラウドのみに依存するだけでは不十分です。
簡単に言えば、エッジAIとは、データを中央サーバーに送信して処理するのではなく、デバイス上でAIモデルをローカルに実行する技術です。これにより、遅延の低減、信頼性の向上、そして現実世界の出来事へのリアルタイムな対応が可能になります。
しかし、こうした環境に高性能なモデルを導入するには、独自の課題が伴います。計算リソースが限られており、電力制約もあるため、モデルは効率的であるだけでなく、実行されるハードウェアに合わせて最適化されている必要があるからです。
Ultralytics Ultralytics YOLO 、リアルタイムのコンピュータビジョン向けに設計されていますが、エッジ環境においてその真価を最大限に引き出すには、ソフトウェアとハードウェアの適切な組み合わせが必要です。そこで、Axelera AIとの提携を発表できることを大変嬉しく思います。
当社はAxelera AIと提携し、エクスポート連携機能を刷新しました。これにより、Metis®AI Processing Units(AIPU) Ultralytics YOLO 効率的かつ高性能に展開できるようになります。

この記事では、Ultralytics YOLO Metisへのデプロイ用に簡単にコンパイルする方法について解説します。さっそく始めましょう!
コンピュータビジョンアプリケーションが進化し続ける中、より高速かつ効率的な処理へのニーズはますます重要になっています。従来のクラウドベースのアプローチでは、遅延が生じたり、安定した接続環境に依存したりするため、多くのインテリジェントビジョン活用事例におけるリアルタイム処理の要件を満たせない可能性があります。
エッジAIは、モデルをローカルデバイス上で直接実行できるようにすることで、データの発生源に近い場所で処理を行うことを可能にし、こうした課題に対処します。例えば、捜索救助活動で使用されるビジョン機能を搭載したドローンを考えてみましょう。
これらのシステムは、インターネット接続が限られている、あるいは全くない遠隔地において、detect 障害物、危険detect するために、映像をリアルタイムで分析する必要があります。エッジAIは、コンピュータビジョンモデルをドローン上で直接実行することで、クラウドインフラに依存することなく、より迅速な意思決定と信頼性の高いパフォーマンスを実現します。
この変化は、あらゆる業界において新たな可能性を切り開いています。小売業におけるリアルタイムの物体検知、製造業における自動品質検査、ロボット工学における環境認識といった用途は、いずれも応答時間の短縮と信頼性の向上という恩恵を受けています。
エッジAIは、実環境においてスケーラブルで応答性の高いコンピュータビジョンシステムを展開するための重要な基盤技術として急速に普及しつつある。
新しいエクスポート連携機能について詳しく説明する前に、ひとまず一歩引いて、Axelera AIの「Metis AI Processing Units」について、そしてそれらが効率的なエッジAIの実現においてどのような役割を果たしているのかについて、詳しく見ていきましょう。
Axelera AIは、エッジ環境におけるAI推論を高速化するために特別に設計された専用ハードウェアを開発しています。その中核をなすのが「Metis AIPU」(AI処理ユニット)であり、これはエッジデバイス上でニューラルネットワークを効率的に実行するために構築された専用プロセッサです。
汎用の中央処理装置(CPU)やグラフィックス処理装置(GPU)とは異なり、AIPUはAIワークロード特有の計算パターンを処理するように設計されています。これにより、高いパフォーマンスを発揮しつつ低消費電力を維持することが可能となり、リソースが限られることが多いエッジ環境において極めて重要です。
Axelera AIのアプローチが特に革新的である理由は、そのフルスタック設計にあります。Metisは、エッジコンピューティングが求めるエネルギー効率と高いパフォーマンスを実現するため、デジタル・インメモリ・コンピューティング(D-IMC)とRISC-Vを採用して構築されています。Metisの4つのコアは個別にプログラム可能であり、1チップあたり4つのモデルを並列で実行できます。ハードウェアに加え、Voyager SDKにはコンパイラとランタイムが含まれており、これらが連携してデプロイメントに向けたモデルの最適化を行います。
これにより、開発者は学習済みのモデルから本番環境向けの推論処理へと、より効率的に移行できるようになります。具体的には、Metis AIPUを活用することで、YOLO Ultralytics YOLO のような高度なコンピュータビジョンモデルを、企業、小売、医療、製造業の環境から、農業用機器や産業用機器、さらには衛星に至るまで、エッジデバイス上で直接実行することが可能になります。
Ultralytics Python 、さまざまなコンピュータビジョンタスクにおいて、YOLO 学習、評価、およびデプロイを行うための統一されたインターフェースを提供します。YOLO 通常、実験やモデル開発に最適なPyTorchを使用して開発・学習されます。
ただし、これらのモデルを専用のエッジハードウェアにデプロイする際には、対象デバイス向けに最適化された形式に変換する必要があります。そこで、Ultralytics Python がサポートするエクスポート機能の連携が役立ちます。
Ultralytics 、ONNX、TensorRT、その他のハードウェア固有のバックエンドなど、デプロイ先に応じてYOLO さまざまな形式に変換できる、幅広いエクスポートオプションUltralytics 。これらの統合機能により、必要な最適化や変換処理が自動的に行われるため、実運用に向けたモデルの準備プロセスが簡素化されます。
これを踏まえ、UltralyticsはAxelera AIとのエクスポート連携機能を更新Ultralytics 、YOLO エクスポートしてMetis AIPU上で展開できるようにUltralytics 。
エクスポート処理の際、モデルはコンパイルされ、Axeleraハードウェア向けに特別に設計された最適化された形式に量子化されます。この処理により、".axm"形式のコンパイル済みモデルと、デプロイおよび推論に必要なメタデータが生成されます。

この統合により、以下の分野にわたる幅広いコンピュータビジョンタスクに対応しています Ultralytics YOLOv8、 Ultralytics YOLO11、Ultralytics モデルに対応しており、物体検出、姿勢推定、インスタンスセグメンテーション、オリエンテッド・バウンディングボックス(OBB)検出、画像分類などのタスクが含まれます。ほとんどのタスクはエクスポートワークフローを通じて直接サポートされていますが、YOLO26によるセグメンテーションは、Voyager SDKを使用したモデルズーを通じて利用可能です。
この拡張されたサポートにより、開発者は、リアルタイムでの物体検出からシーンの理解、動きの追跡、複雑な視覚データの分析に至るまで、用途に応じてさまざまな種類のビジョンモデルを柔軟に導入できるようになります。
モデルをエクスポートすれば、PyTorch 依存することなく、デプロイして実行できます。代わりに、Voyager SDKランタイムを使用して実行されます。このランタイムは、ビデオ処理、リアルタイム検出、トラッキングなどのタスク向けに、エッジデバイス上で直接エンドツーエンドのパイプラインを構築することをサポートしています。
新しいエクスポート機能について理解が深まったところで、Ultralytics YOLO このカスタム形式でエクスポートし、エッジ側のMetisハードウェア上で実行する方法について順を追って説明していきます。
まず、Ultralytics Python をインストールする必要があります。このパッケージは、YOLO 学習、評価、およびエクスポートを行うためのシンプルで一貫性のあるインターフェースを提供します。
ターミナルまたはコマンドプロンプトで次のコマンドを実行すると、pip を使ってインストールできます:
pip installultralytics
インストールやエクスポート中に問題が発生した場合は、Ultralytics 公式Ultralytics や「よくある問題」ガイドがトラブルシューティングに役立ちます。
Axeleraハードウェアにモデルをエクスポートして実行するには、AxeleraドライバとVoyager SDKもインストールする必要があります。この手順により、Metis AIPUとの通信が可能になり、必要なランタイムおよびコンパイラツールが提供されます。
以下の手順は、Axelera AI MetisハードウェアにアクセスできるLinux環境で行う必要があります。お使いのシステムでターミナルを開くか、互換性のあるローカル環境でJupyter Notebookを実行している場合はノートブックのセルを使用し、以下のコマンドを実行してください。
まず、次のようにAxeleraリポジトリのキーを追加します:
sudo sh -c "curl -fsSL https://software.axelera.ai/artifactory/api/security/keypair/axelera/public | gpg --dearmor -o /etc/apt/keyrings/axelera.gpg"
次に、以下に示すように、Axeleraリポジトリをシステムに追加します:
sudo sh -c "echo 'deb [signed-by=/etc/apt/keyrings/axelera.gpg] https://software.axelera.ai/artifactory/axelera-apt-source/ ubuntu22 main' > /etc/apt/sources.list.d/axelera.list"
次に、Voyager SDK をインストールし、次のように Metis ドライバーを読み込んでください:
sudo apt update
sudo apt install -y metis-dkms=1.4.16
sudo modprobe metis
これらの手順が完了すると、システムはUltralytics YOLO エクスポートおよびAxelera AI Metisデバイス上での実行が可能になります。
Ultralytics インストールが完了したら、YOLO を読み込み、Metis 用のコンパイル済みパッケージとしてエクスポートできます。このプロセスにより、モデルは Axelera AI Metis ハードウェアへのデプロイに最適化された形式に変換されます。
以下の例では、事前学習済みのYOLO26nanoモデルを使用し、Metis用にエクスポートします。エクスポートされたモデルは、「/yolo26n_axelera_model」というディレクトリに保存されます。
fromultralytics YOLO
model =YOLO("yolo26n.pt")
model.export(format="axelera")
モデルをエクスポートした後、それを読み込んで、未見の画像や動画ストリームに対して推論を実行できます。これにより、Axelera AI Metisデバイス上で直接、リアルタイムのコンピュータビジョンタスクを実行することが可能になります。
たとえば、以下のコードスニペットは、エクスポートされたモデルを読み込み、公開されているURLで推論を実行する方法を示しています。
axelera_model =YOLO("yolo26n_axelera_model")
results = axelera_model("ultralytics", save=True)
この場合、モデルは入力画像を分析して物体を検出し、その結果を「detect」ディレクトリに保存します。
次に、実環境においてUltralytics YOLO Axelera AIハードウェアに導入できる、一般的なエッジAIの活用例について見ていきましょう。
Axelera AIのMetis AIPUは、組み込みシステムや産業用PCからロボット工学、エッジサーバーに至るまで、幅広い導入環境に対応するように設計されています。高性能かつ省電力な推論機能により、あらゆる業界においてコンピュータビジョンアプリケーションをデバイス上で直接実行することが可能になります。また、Voyager SDKには、MLエンジニアやアプリケーションエンジニアがエッジ向けモデルを製品化するためのパイプラインビルダーも含まれています。
小売業界において、顧客の行動をリアルタイムで把握することは、大きな違いを生む可能性があります。
Axelera AIのハードウェア上で動作Ultralytics YOLO を活用することで、店舗は来店客の動向を監視し、人数を計測し、店内の移動パターンをリアルタイムで分析することができます。すべてがデバイス上で処理されるため、クラウド接続に依存することなく即座に分析結果を得ることができ、データのプライバシーを保護しつつ、チームがより迅速に対応できるよう支援します。

送電線などの大規模なインフラの維持管理は、複雑で多大なリソースを要します。こうしたネットワークは広範囲に及ぶことが多く、点検には時間がかかり、コストも高く、危険を伴うこともあります。故障や摩耗の初期兆候が見逃されると、停電や設備の損傷、さらには安全上のリスクへと発展する恐れがあります。
ドローンは、点検の効率化を図るためにますます活用されるようになっています。ドローンは長距離を移動でき、立ち入りが困難な場所にもアクセスでき、重要な資産の高解像度画像を撮影することができます。
ドローンとエッジAIを組み合わせることで、これらのワークフローはさらに強化されます。Axelera AIハードウェア上で動作Ultralytics YOLO 、点検中のリアルタイム分析が可能となり、現場での不具合の特定、部品の分類、異常の検出が行えます。これにより、手動による確認の必要性が減り、より迅速かつ信頼性の高いインフラ監視が実現します。

ロボット工学において、速度と応答性は極めて重要です。倉庫内を移動する場合でも、変化の激しい産業環境で稼働する場合でも、ロボットは周囲の状況を瞬時に把握する必要があります。
Axelera AIのハードウェア上でYOLO 、ロボットは障害物の検知から人の追跡、物体の識別に至るまで、周囲の状況をリアルタイムで把握できるようになります。これにより、システムはより安全に移動し、変化する状況に適応し、常時クラウドに接続する必要なく、より高い自律性を持って動作することが可能になります。
新しい統合機能を活用して、Axelera AIのMetisハードウェアにUltralytics YOLO を導入することによる主なメリットは以下の通りです:
Ultralytics YOLO Ultralytics xelera AIのMetis AIPUを活用することで、高性能なコンピュータビジョン技術をエッジ環境へ容易に導入できるようになります。導入プロセスを簡素化し、専用ハードウェア向けにモデルを最適化することで、この統合は開発と実世界での応用との間のギャップを埋める一助となります。
エッジAIが発展し続ける中、効率的で拡張性の高い導入オプションを確保することが、応答性が高く信頼性の高いシステムを構築するための鍵となります。今回の提携は、高度なビジョンAIをあらゆる業界でより利用しやすくするための第一歩となります。
AIについてもっと知りたいですか?GitHubリポジトリを探索し、コミュニティと繋がり、ライセンスオプションをチェックして、コンピュータビジョンプロジェクトを始めましょう。小売におけるAIやヘルスケアにおけるコンピュータビジョンなどのイノベーションが、未来をどのように形作っているかをご覧ください。
未来の機械学習で、新たな一歩を踏み出しましょう。