ニューラル・プロセッシング・ユニット(NPU)がAIをどのように高速化するかをご紹介します。効率的で低消費電力のエッジコンピューティングおよび推論を実現するために、Ultralytics NPUに導入する方法をご覧ください。
ニューラル・プロセッシング・ユニット(NPU)は、 人工知能および機械学習アルゴリズムの実行を高速化するために特別に設計された専用ハードウェア回路です。 汎用プロセッサとは異なり、NPUは ディープラーニングモデルの核心となる複雑な並列行列演算をネイティブに処理できる アーキテクチャで設計されています。これらの 計算を極めて効率的に実行することで、NPUは消費電力を大幅に削減しつつ、 推論のレイテンシを著しく改善します。これにより、NPUは、複雑なモデルを効率的に展開しつつ バッテリーの急速な消耗を防ぐことが不可欠な、現代のスマートフォン、ノートパソコン、および特殊なIoTデバイスにおいて、不可欠な コンポーネントとなっています。
NPUの価値を理解するには、AI分野における他の一般的なハードウェアアクセラレータと 区別することが役立ちます:
NPUの台頭により、常時クラウドに接続する必要なく、 ユーザー端末上で直接人工知能(AI)を 実行できるようになりました。
NPUを活用したい開発者にとって、コンピュータビジョンモデルのデプロイは驚くほど簡単になりました。 Ultralytics を使用すれば、 トレーニング済みのネットワークを、さまざまなハードウェアアクセラレータ向けに最適化された形式でエクスポートできます。このライフサイクル全体を効率化するため、 Ultralytics 、クラウド上の データセット管理、自動アノテーション、そして最適化されたモデルを事実上あらゆる モデルデプロイ環境へ展開するための堅牢なツールを提供しています。
ローカル環境で作業する場合、 ONNX 、 PyTorch 、または TensorFlow といったフレームワークの統合機能を使用して、NPU をターゲットに設定できます。以下は、YOLO OpenVINO エクスポートする方法を示す簡単なPython 。これにより、 計算ワークロードがIntel にシームレスに委譲され、 リアルタイム推論が高速化されます。
from ultralytics import YOLO
# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)
# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")
未来の機械学習で、新たな一歩を踏み出しましょう。