NVIDIA 深層学習モデルTensorRT 仕組みを探求しましょう。Ultralytics TensorRT にエクスポートし、低遅延・高速推論TensorRT 今すぐ学びましょう。
TensorRT NVIDIA開発した高性能な深層学習推論ソフトウェア開発キット(SDK)TensorRT 。 これは、ニューラルネットワークモデルをデプロイ向けに最適化し、深層学習アプリケーション向けに 低い推論レイテンシと高いスループットを実現するよう設計されています。最適化コンパイラとして機能することで、TensorRT PyTorchやTensorFlowなどの人気フレームワークから学習済みネットワークTensorRT 、 PyTorchTensorFlow フレームワークから学習済みネットワークTensorFlow NVIDIA GPU上で効率的に実行されるよう再構築します。 この機能は、速度と効率が最優先される実稼働環境において複雑なAIモデルを実行するために不可欠です。
TensorRT 学習済みニューラルネットワークを、対象ハードウェア向けに最適化された「エンジン」に変換するTensorRT 。 これはいくつかの高度な技術によって実現されます:
TensorRT 、膨大な量のデータを最小限の遅延で処理できるため、 コンピュータービジョンや複雑なAIタスクに依存し、 タイミングが極めて重要な産業分野で広く採用TensorRT 。
TensorRT ワークフローに統合するのは、最新のAIツールを使えば簡単だ。その ultralytics package
標準的なPyTorch TensorRT シームレスに変換する手法を提供します。これによりユーザーは
最先端のアーキテクチャを活用できます Ultralytics YOLO26 NVIDIA ハードウェアアクセラレーションにより実現されます。エクスポート前にデータセットとトレーニングパイプラインを管理したいチーム向けに、 Ultralytics そのような高性能なデプロイメントに向けたモデルを準備するための包括的な環境を提供します。
以下の例は、YOLO26モデルをTensorRT エンジンファイルにエクスポートする方法を示しています(.engine) そして
それを リアルタイム推論:
from ultralytics import YOLO
# Load the latest stable YOLO26 model (nano size)
model = YOLO("yolo26n.pt")
# Export the model to TensorRT format (creates 'yolo26n.engine')
# This step optimizes the computational graph for your specific GPU
model.export(format="engine")
# Load the optimized TensorRT engine for high-speed inference
trt_model = YOLO("yolo26n.engine")
# Run inference on an image source
results = trt_model("https://ultralytics.com/images/bus.jpg")
TensorRT 、モデルデプロイメントの分野でよく耳にする他のTensorRT 区別することが重要です:
AIエージェントやビジョンシステムの性能を最大化を目指す開発者にとって、 トレーニングフレームワークからTensorRT のような最適化されたランタイムへの移行を理解することは、 プロフェッショナルなMLOpsにおける重要なTensorRT 。