AIと機械学習におけるCPU重要な役割を探る。データ準備、推論、GPU/TPUとの比較におけるCPUの使用方法について学びます。
中央演算処理装置CPU)は、コンピュータの制御センターとして機能する主要コンポーネントである、 命令を実行し、システム全体のデータの流れを制御する。しばしば「頭脳」と呼ばれる。 デバイスの「頭脳」とも呼ばれるCPU 、オペレーティング・システムの実行や入出力操作の管理など、汎用コンピューティング・タスクを処理する。 入出力操作の管理など、汎用コンピューティングタスクを処理する。人工知能(AI)や 人工知能(AI)や 機械学習(ML)においては、CPU 基礎的な役割を果たす。CPUは、大規模な並列処理に必要な並列性を提供しないかもしれない。 モデル学習に必要な大規模な並列性は提供できないかもしれないが、データの前処理には不可欠である、 システム・ロジックを管理し、消費電力とハードウェア・コストが制約となるエッジ・デバイス上で推論を実行するためには不可欠である。 制約があります。
機械学習オペレーション(MLOps)を最適化するには、ハードウェアの状況を理解することが不可欠だ。 機械学習オペレーション(MLOps)の最適化には、ハードウェアの状況を理解することが不可欠です。CPU 、GPUやTPUのようなアクセラレーターとは、アーキテクチャや使用目的が大きく異なる:
トレーニングではGPUが注目されることが多いが、AIのライフサイクルを通じてCPU 不可欠であることに変わりはない。
CPUは、汎用性とエネルギー効率が生の処理能力よりも優先される幅広いアプリケーションを容易にします。 スループットが優先されます。
開発者は、特別なハードウェアがない環境でのモデルのデバッグ、テスト、デプロイにCPU 頻繁に使用する。 を使うことが多い。次のようなフレームワークがある。 PyTorchのようなフレームワークを使うと CPU明示的にターゲットにすることができます。さらに、モデルを ONNXなどの形式に変換したり OpenVINO ツールキットを使うことで Intel 推論速度を大幅に最適化することができる。
以下の例では Ultralytics YOLO11モデルがCPU上で推論を実行する方法を示します。これは 標準的なハードウェアでの性能ベンチマークに特に役立つ。 標準的なハードウェアで
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Display the detection results
results[0].show()
を使用している。 device="cpu" 引数は、計算がセントラル・プロセッサー上で行われることを保証する、
これにより開発者は
サーバーレス・コンピューティング 環境または低消費電力
エッジデバイス。

