GPUがAIと深層学習を加速する仕組みを学びましょう。Ultralytics トレーニングとリアルタイム推論の最適化における並列コンピューティングの威力を発見してください。
グラフィックス処理装置(GPU)は、もともとフレームバッファ内の画像操作と生成を高速化し、表示出力を行うために設計された特殊な電子回路である。その起源はゲームや専門的な可視化のためのコンピュータグラフィックスのレンダリングにあるが、GPUは現代の人工知能(AI)の基盤となるエンジンへと進化を遂げた。 標準的なプロセッサが少数の強力なコアを用いてタスクを順次処理するのとは異なり、GPU 数千もの小型で効率的なコアで構成され、複数のタスクを同時に処理するよう設計されています。この並列計算と呼ばれる能力により、深層学習(DL)や複雑なニューラルネットワーク(NN)を支える大規模な行列・ベクトル演算において、GPUは極めて高い効率を発揮します。
GPUが機械学習(ML)に不可欠な主な理由は、 高速な行列乗算を実行できる能力にあります。PyTorchのような深層学習フレームワークは PyTorch や TensorFlow は、このハードウェアアクセラレーションを活用するよう 特に最適化されています。 これによりモデルトレーニング時間が大幅に短縮され、 標準プロセッサで数週間かかる計算がGPU数時間で完了することが多い。 これらのデバイスの演算スループットは通常FLOPS(浮動小数点演算/秒)で測定され、 YOLO26のような最先端モデルの厳しい要求を処理するハードウェア能力を測る重要な指標である。
ハードウェアの全体像を理解するには、GPU 他のGPU 区別することが有用である:
高性能GPUの導入は、多様な産業分野における革新を促進している:
を使用する場合 ultralytics このパッケージでは、GPU の利用GPU 、効率的なワークフローのために強く推奨されます。ライブラリは自動デバイス検出をサポートしていますが、ユーザーが明示的にデバイスを指定することも可能です。
以下の例は、利用可能な最初のGPU上で YOLO26モデルをトレーニングする方法を示しています:
from ultralytics import YOLO
# Load the YOLO26n model
model = YOLO("yolo26n.pt")
# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)
トレーニングを超えて、GPUはモデルデプロイメントにおいて重要な役割を果たします。推論時の効率を最大化するため、モデルはTensorRTやONNXなどの最適化された形式に変換されることがよくあります。 TensorRTなどの最適化形式に変換されます。これによりニューラルネットワークが再構築され、GPU に完全に適合することでレイテンシが削減されます。GPU ローカルハードウェアを利用できない開発者向けに、Ultralytics クラウドベースのソリューションを提供し、強力なリモートGPU 上でデータセットの管理やモデルのトレーニングを可能にします。このアクセシビリティがエッジAIの革新を推進し、複雑な コンピュータービジョン(CV)タスクを 現場の小型で省電力なデバイスに展開することを可能にします。