GPUがディープラーニングを加速し、ワークフローを最適化し、現実世界のアプリケーションを可能にすることで、AIと機械学習に革命をもたらす方法をご覧ください。
グラフィック・プロセッシング・ユニットGPU)は、コンピュータ・グラフィックスや画像の作成とレンダリングを高速化するために設計された特殊な電子回路です。 コンピュータ・グラフィックスや画像のレンダリングを高速化するために設計された特殊な電子回路である。その起源は その起源はゲームとビデオレンダリングにありますが、GPU そのユニークなアーキテクチャにより、現代のコンピューティングにとって重要なコンポーネントへと進化しました。 そのユニークなアーキテクチャのためです。タスクを逐次処理する標準的なプロセッサーとは異なり、GPU 何千もの小さな効率的なコアで構成されています。 より小さく効率的なコアで構成され、同時に大量のデータ・ブロックを処理することができます。この並列アーキテクチャにより この並列アーキテクチャにより、GPUは以下の分野で不可欠な存在となっている。 人工知能(AI)と 機械学習(ML)の分野で不可欠なものとなっている。 複雑なアルゴリズムの学習に必要な時間を大幅に短縮します。
GPU 核となる利点は並列コンピューティングにある。 最新のAIワークロード、特に ディープラーニング(DL)や 特にディープラーニング(DL)やニューラルネットワーク(NN)を含む最新のAIワークロードは、計算集約的だが反復的な行列演算に大きく依存している。 演算集約的だが反復的である。GPU 、これらのタスクを数千のコアに分割し、それらをすべて実行することができます。 コアに分割し、一度に実行することができます。
この能力は、GPUが学習できることを実証した AlexNetアーキテクチャーは、GPUがCNN(畳み込みニューラルネットワーク)を学習できることを実証した。 畳み込みニューラルネットワーク(CNN) を従来のプロセッサーよりも大幅に高速に学習できることを実証した。今日、この高速化により、研究者は モデルの学習を数週間ではなく数時間で実行できるようになった。計算 これらのデバイスの計算スループットは、しばしば FLOPS(1秒あたりの浮動小数点演算数)で測定されることが多い。 で測定されることが多い。
GPUがハードウェアの中でどのような位置づけにあるかを理解するためには、GPUを他の一般的なプロセッサーと比較することが役立ちます:
GPU アクセラレーションの導入は、さまざまな業界のイノベーションに拍車をかけている:
を使用する場合 ultralytics パッケージでは、GPU 利用することでトレーニングプロセスを劇的にスピードアップすることができる。この
ライブラリはハードウェアの自動検出をサポートしていますが、ユーザーが手動でデバイスを指定してGPU 確実に利用することもできます。
を利用することもできます。
次の例は、最初に利用可能なGPU YOLO11 モデルをトレーニングする方法を示しています:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
トレーニングだけでなく、GPUは次のような場面でも重要な役割を果たします。 モデルの展開。以下を必要とするアプリケーションでは リアルタイム推論を必要とするアプリケーションでは、トレーニングされたモデルはしばしば のようなツールを使って最適化されます。 NVIDIA TensorRTまたは ONNX Runtimeのようなツールを使って最適化されます。これらのツールは、ニューラルネットワークを再構築して、GPU固有のアーキテクチャーを最大限に活用し、レイテンシーを削減します。 GPU固有のアーキテクチャを最大限に活用し、レイテンシを削減します。さらに さらに、エッジAIの台頭により、コンパクトで電力効率に優れ、高度な処理を実行できるGPUの開発が進んでいる、 電力効率に優れたGPUが開発されるようになった。 コンピュータ・ビジョン(CV)タスクをローカル クラウド接続への依存を減らすことができます。


