エッジAIを探り、リアルタイム推論、低遅延、そしてエッジでのデータプライバシー強化のために、Ultralytics YOLO26をローカルハードウェアにデプロイする方法を学びましょう。
エッジAIとは、人工知能 (AI)アルゴリズムとモデルを、スマートフォン、IoTセンサー、ドローン、コネクテッドカーなどのローカルハードウェアデバイスに直接展開することを指し、集中型クラウドコンピューティングセンターに依存するものではありません。この分散型アプローチにより、データは生成元で処理され、リモートサーバーとの間で情報を送受信する際のレイテンシを大幅に削減します。機械学習 (ML)タスクをローカルで実行することで、デバイスは即座に意思決定を行い、インターネット接続なしで確実に動作し、機密情報をデバイス自体に保持することでデータプライバシーを強化できます。
エッジAIの核は、組み込みシステム上で推論エンジンを実行することを含みます。エッジデバイスは通常、クラウドサーバーと比較してバッテリー寿命と計算能力が限られているため、AIモデルは高い効率性を持つ必要があります。開発者は、大規模なニューラルネットワークを、著しい精度を犠牲にすることなく圧縮するために、モデル量子化やモデルプルーニングといった技術をしばしば採用します。
専用のハードウェアアクセラレータは、これらのワークロードを効率的に処理するために頻繁に使用されます。例としては、ロボット工学向けのNVIDIA Jetsonプラットフォームや、低消費電力推論向けのGoogle Coral Edge TPUなどがあります。ソフトウェアフレームワークも重要な役割を果たし、TensorRTやTFLiteのようなツールは、これらの制約された環境向けにモデルを最適化し、高速なリアルタイム推論を保証します。
これらの用語はしばしば互換的に使用されますが、それらを区別することは有用です。
エッジAIは、重要なシナリオでの自律的な意思決定を可能にすることで、産業を変革しています:
モデルをエッジにデプロイするには、通常、高計算環境でモデルを訓練し、その後ONNXやOpenVINOなどのエッジデバイスと互換性のある形式にエクスポートします。Ultralytics Platformは、このワークフローを簡素化し、ユーザーが様々なエッジターゲット向けにモデルを訓練し、自動的にエクスポートできるようにします。
以下の例は、軽量な YOLO26 モデル(特に効率のために設計されたもの)を、モバイルおよびエッジデプロイメントに適したフォーマットにエクスポートする方法を示しています。
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
高度なエッジデプロイメントでは、多くの場合、コンテナ化技術(Dockerなど)を利用してアプリケーションをパッケージ化し、Raspberry Piユニットから産業用ゲートウェイまで、異なるデバイスアーキテクチャ間で一貫して動作することを保証します。
未来の機械学習で、新たな一歩を踏み出しましょう。