用語集

CPU

AIと機械学習におけるCPUの重要な役割を探る。データ準備、推論、GPU/TPUとの比較におけるCPUの使用方法について学びます。

中央演算処理装置(CPU)は、コンピュータの主要コンポーネントであり、命令を実行し、コンピューティングデバイス内のほとんどの処理を行う。しばしばコンピュータの「頭脳」と呼ばれ、その主な役割は、コンピュータ・プログラムを構成する一連の命令を実行することである。機械学習(ML)や人工知能(AI)の文脈では、CPUはシステム全体を管理し、データの準備を処理し、専用のハードウェアには適さないタスクを実行する基礎的な要素である。CPUは、モデルのトレーニング中に重い計算の大部分を実行することはないかもしれないが、その役割は、完全なAIワークフローにとって不可欠である。

CPUとGPU、TPUの比較

CPU、GPUTPUの主な違いは、そのアーキテクチャと意図された目的にある:

モデルのトレーニングにGPUやTPUを多用するシステムでも、CPUはシステム全体を管理し、アクセラレータ用のデータを準備し、並列計算に最適化されていないワークフローの一部を処理する。これらのトレードオフを理解することは、効率的なモデル展開のために極めて重要です。

CPUを使ったAI/MLの実例

専用のハードウェアは大規模なトレーニングに優れているが、CPUは多くのAIタスク、特に特定の制約がある環境では不可欠であることに変わりはない。

  1. 自然言語処理(NLP)の前処理:テキストデータが学習や推論のためにモデルに入力される前に、前処理が必要である。テキストをより小さな単位に分割するトークン化のようなタスクは、NLPの基本です。Hugging FaceのTokenizersのようなライブラリは、処理されたデータがGPUに送られる前に、CPU上でこれらの逐次処理を効率的に実行します。
  2. エッジデバイス推論:多くのエッジAIアプリケーションは、Raspberry Piや ARMアーキテクチャをベースとしたデバイスなど、パワーや計算リソースが限られたデバイス上にMLモデルを展開する。このようなシナリオでは、推論は多くの場合、デバイスのCPUで直接実行されます。TensorFlow Liteや OpenVINOツールキットのような最適化されたライブラリは、基本的なオブジェクト検出やキーワードスポッティングのようなタスクで許容できるパフォーマンスを達成するために使用される。これらのデプロイメントの管理は、Ultralytics HUBのようなプラットフォームやDockerのようなコンテナ化ツールによって合理化できる。

CPUの能力と限界を理解することは、データ収集の処理から多様なハードウェア・プラットフォームへの効率的な配備の実現まで、エンドツーエンドのAIシステムを設計し最適化する上で極めて重要である。これは、成功するMLOps戦略の重要な側面である。

Ultralyticsコミュニティに参加する

AIの未来に参加しませんか。世界のイノベーターとつながり、協力し、成長する

今すぐ参加する
クリップボードにコピーされたリンク