YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024
用語集

CPU

AIと機械学習におけるCPUの重要な役割について解説します。データ準備や推論での使用法、およびGPU/TPUとの比較について学びましょう。

中央処理装置(CPU)は、コンピュータの主要なコンポーネントであり、命令を実行し、コンピューティングデバイス内でほとんどの処理を実行します。コンピュータの「頭脳」と呼ばれることが多く、その主な役割は、コンピュータプログラムを構成する一連の命令を実行することです。機械学習(ML)および人工知能(AI)のコンテキストでは、CPUはシステム全体を管理し、データ準備を処理し、特殊なハードウェアに適さないタスクを実行する基本的な要素です。モデルトレーニング中に大量の計算を実行しない可能性がありますが、その役割は完全なAIワークフローに不可欠です。

CPU vs. GPU vs. TPU

CPU、GPU、およびTPUの主な違いは、そのアーキテクチャと意図された目的にあります。

  • CPU: シーケンシャルなタスクの低レイテンシ実行に最適化された汎用プロセッサ。オペレーティングシステム、制御フロー、およびさまざまな計算の管理に最適な、少数の強力なコアを備えています。主要なメーカーには、IntelAMDがあります。
  • GPU: 元々はグラフィックス用に設計されましたが、GPUはそのアーキテクチャにより、現在ではAIに広く使用されています。GPUは、並列処理用に最適化された数千の小さなコアを備えており、深層学習で使用される行列などの大きなデータブロックを処理します。この並列処理により、Ultralytics YOLO11などのモデルのトレーニングが大幅に高速化されます。
  • TPU: Googleのカスタムハードウェアである特定用途向け集積回路(ASIC)は、ニューラルネットワークで使用されるテンソル計算を高速化するために特別に設計されています。TensorFlowPyTorchのようなフレームワーク向けに、クラウドプラットフォーム上で高度に最適化されています。

モデルのトレーニングにGPUやTPUを多用するシステムであっても、CPUはシステム全体を管理し、アクセラレータ用のデータを準備し、並列計算に最適化されていないワークフローの部分を処理します。効率的なモデルのデプロイには、これらのトレードオフを理解することが不可欠です。

CPUを使用した実世界のAI/ML事例

特殊なハードウェアは大規模な学習に優れていますが、CPUは多くのAIタスク、特に特定の制約がある環境では不可欠です。

  1. 自然言語処理(NLP)の前処理: テキストデータを学習または推論のためにモデルに入力する前に、前処理が必要です。テキストをより小さな単位に分割するトークン化などのタスクは、NLPの基本です。Hugging FaceのTokenizersなどのライブラリは、処理されたデータがGPUに送信される前に、CPU上でこれらのシーケンシャルな操作を効率的に実行することがよくあります。
  2. エッジデバイス推論: 多くのエッジAIアプリケーションは、Raspberry PiARMアーキテクチャベースのデバイスなど、電力と計算リソースが限られたデバイスにMLモデルをデプロイします。これらのシナリオでは、推論は多くの場合、デバイスのCPU上で直接実行されます。TensorFlow LiteOpenVINOツールキットのような最適化されたライブラリを使用して、基本的な物体検出やキーワードスポッティングなどのタスクで許容できるパフォーマンスを実現します。これらのデプロイメントの管理は、Ultralytics HUBのようなプラットフォームや、Dockerのようなコンテナ化ツールを通じて効率化できます。

CPUの能力と限界を理解することは、データ収集の処理から、多様なハードウェアプラットフォーム全体で効率的なデプロイメントを実現することまで、エンドツーエンドのAIシステムを設計および最適化するために不可欠です。これは、成功するMLOps戦略の重要な側面です。

Ultralyticsコミュニティに参加しませんか?

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加
クリップボードにコピーしました