ヨロビジョン深圳
深セン
今すぐ参加

計算能力がAIイノベーションに与える影響を理解する

6 min read

2024年5月16日

AI技術の進歩に伴い、新しく改良されたAIコンピューティング能力の必要性が高まっています。コンピューティング能力がどのようにAIの動きを前進させているかを探りましょう。

人工知能(AI)とコンピューティング能力は非常に密接な関係にあります。コンピューティング能力は、コンピュータシステムがタスクを処理および実行するのに役立つため、AIアプリケーションに不可欠です。これらのアプリケーションは、複雑なアルゴリズムと大規模なデータセットを管理するために、かなりの計算リソースを必要とします。そこでGPUが登場します。GPU(Graphics Processing Unit)は、元々画像およびビデオ処理を高速化するために設計されましたが、AIに必要な集中的なデータ処理および深層学習タスクを管理するために不可欠になっています。

ここ数年で、AIの進歩は指数関数的に成長しています。当然のことながら、AIハードウェアの進歩は、この成長に対応し、遅れを取らないようにする必要があります。ある調査によると、GPUのパフォーマンスは2003年以降、約7,000倍に向上しています。 

より強力で、より高速で、より効率的なハードウェアにより、研究者やエンジニアはますます複雑なAIモデルを開発できます。AI向けのコンピューティングインフラストラクチャが、人工知能の増大する要求を満たすためにどのように進化しているかを理解しましょう。

AIハードウェア:拡大する議論

AI開発におけるGPUの役割は否定できません。これらの強力なプロセッサは、AIモデルのトレーニングとデプロイに必要な複雑な計算を高速化します。本質的に、これらは現代のAIテクノロジーのバックボーンとして機能します。しかし、注目を集めているのはGPUだけではありません。 

AI 専用に作られたチップが登場し、既存のチップと競合するようになっています。これらのチップは、AI がその役割をより良く、より速く実行できるように、ゼロから構築されています。AI コンピューティングの将来を改善するために、多くの研究と作業が行われています。多くの企業が AI コンピューティング能力に投資しており、これが AI ハードウェアの世界市場が 2023 年に537 億 1,000 万ドルと評価され、2033 年までに約 4,735 億 3,000 万ドルに成長すると予想される理由の 1 つです。

なぜAIハードウェアの進歩が最近話題になっているのでしょうか?特殊なAIハードウェアへの移行は、さまざまな分野におけるAIアプリケーションの需要の高まりを反映しています。AIソリューションを成功させるためには、ハードウェアに起こっている変化を認識し、常に先を行くことが重要です。

AIハードウェアの主要企業

主要なハードウェアメーカーは、次世代ハードウェアの開発を競い合い、社内開発、戦略的パートナーシップ、買収を通じてパフォーマンスと効率を向上させています。

図1. AIハードウェアのリーダー。

Appleは、外部GPUの使用から、AIアクセラレーション用のニューラルエンジンを搭載した独自のMシリーズチップの開発に移行し、厳密に管理されたエコシステムを強化しています。一方、Googleは、Tensor Processing Unit(TPU)インフラストラクチャへの投資を継続しています。TPUは、GPUよりも高速に動作し、消費電力を抑えるように構築されたAIチップであり、大規模なAIソリューションのトレーニングと展開に最適です。

 同様に、AMDはRadeon InstinctシリーズのアクセラレータでAIハードウェア分野に参入し、データセンターおよびハイパフォーマンスコンピューティングアプリケーションをターゲットにしています。また、NvidiaはA100やH100 Tensor Core GPUなど、AIワークロード向けに最適化されたGPUの開発に引き続き注力しています。最近のArm Holdingsの買収は、多くのモバイルデバイスを動かすチップアーキテクチャに対する支配力を高めることを目的としています。

これらの確立されたプレーヤーの枠を超えて、多くのスタートアップや研究機関が、新しいAIチップアーキテクチャに挑戦しています。たとえば、Graphcoreは、インテリジェンス処理ユニット(IPU)によるスパース計算を専門としています。Cerebras Systemsは、極端な規模のAIワークロードに合わせて調整された大規模なチップであるWafer Scale Engineを提供しています。

最新のAIハードウェアの進歩

登場した最新のAIハードウェアを見てみましょう。

2024年4月9日、Intelは最新のAIチップであるGaudi 3を発表し、NvidiaのH100 GPUを上回る優れた性能を誇っています。

  • 電力効率が2倍以上、AIモデルの処理速度が1.5倍高速化。
  • マザーボードにバンドルされている、またはスタンドアロンカードとして、柔軟な構成で利用できます。
  • MetaのLlamaやアブダビのFalconのような多様なAIモデルでテストに成功しており、Stable DiffusionやOpenAIのWhisperによる音声認識など、さまざまなAIモデルのトレーニングとデプロイメントに有効であることが証明されています。
Fig 2. IntelのGaudi 3。

2024年3月18日のGaudi 3に先立ち、NVIDIAは最新のAIプラットフォームであるBlackwellを発表しました。このプラットフォームは、さまざまな分野でのブレークスルーを促進するように設計されており、次の機能を備えています。

  • Nvidiaは、Blackwellを「世界で最も強力なチップ」と主張しています。
  • 2080億個のトランジスタと10 TB/sのチップ間インターコネクトを備えたデュアルダイGPUを誇り、データセンター規模の生成AIにおける電力と効率の新しい基準を打ち立てています。
  • Google Cloud、Amazon Web Services、Microsoft Azureなどの主要なクラウドサービスプロバイダーは、Blackwellを使用して、生成AI、深層学習、およびクラウドコンピューティングサービスの進歩を推進する計画を発表しました。
Fig 3. NvidiaのBlackwell。

カスタムAIチップの台頭

一方、いくつかのハイテク企業は、自社のサービスを強化するために、独自のカスタムAIチップを開発しています。 

2024年4月10日、Metaは最新バージョンのMeta Training and Inference Accelerator(MTIA)を発表しました。Metaのデータセンターで既に稼働しているこの第2世代チップは、計算能力とメモリ帯域幅の点で優れた性能を発揮しています。これらのアップグレードは、FacebookやInstagramなどのプラットフォーム上でのランキングやレコメンデーションエンジンなど、MetaのAIアプリケーションのパフォーマンスをサポートします。

Fig 4. Metaの最新版MTIA。

同様に、Google、Amazon、Microsoftなどの他の主要企業も、今年独自のカスタムシリコンチップを発表しました。これは、コスト構造を最適化し、Nvidiaのようなサードパーティサプライヤーへの依存を減らすための戦略的な動きです。

AIハードウェアはどこで使用されていますか? 

AIハードウェアは、さまざまな業界の多様なAIソリューションをサポートしています。ヘルスケアでは、MRIやCTスキャンなどの医療画像処理システムを強化し、複雑なタスクを処理し、大量のデータを効率的に処理して、迅速かつ正確な診断を可能にします。

金融機関は、不正検出と投資最適化のためにAIアルゴリズムを使用してデータを分析します。金融データ分析の複雑な性質上、膨大な計算ワークロードを効果的に処理するための高度なハードウェア機能が必要です。

自動車産業では、自動運転車のリアルタイムセンサーデータの処理に役立ちます。物体検出や衝突回避などのタスクは、迅速な意思決定と乗客の安全のために、強力な処理能力を備えた高度なハードウェアによってサポートされる必要があります。

Fig 5. 自動運転車の頭脳。

小売業者は、AIを活用したレコメンデーションエンジンを使用して、ショッピング体験をパーソナライズし、部門全体の膨大な顧客データを分析して好み​​を予測し、関連製品を提案することで、売上を伸ばしています。多様なデータセットを分析し、パーソナライズされた推奨事項を生成する必要があるため、リアルタイム応答とユーザーエンゲージメントを強化するための高度なハードウェアが求められています。

小売店に関連するもう一つの例は、コンピュータビジョンを使用して顧客の行動を監視および分析することです。小売業者は、顧客がどのように環境と相互作用し、人気のある製品を特定し、人の流れのパターンを検出するかを理解できます。これらの調査結果に基づいて、店舗のレイアウトと製品の配置を最適化して、売上を向上させることができます。計算能力は、大量のビデオデータをリアルタイムで処理するために重要です。動きとインタラクションの正確な追跡は、堅牢なハードウェアに依存します。それがなければ、データ処理の速度と精度が損なわれ、顧客行動分析の有効性が低下します。

これらはほんの一例に過ぎません。製造業から農業まで、AIハードウェアはあらゆる場所で見られます。

計算能力によるAIのスケーリング

AIハードウェアは、多くの場合、大規模なタスクを処理するために構築されています。世界中の産業におけるAIの導入規模を把握するのは難しいかもしれませんが、スケーラブルなAIは適切なハードウェアの導入にかかっていることは明らかです。

BMWとNVIDIAのコラボレーションを例にとってみましょう。BMWは年間250万台の自動車を生産しており、その事業規模は膨大です。BMWは、品質管理や予測メンテナンスから、ロジスティクスやサプライチェーン管理まで、製造プロセスのさまざまな側面を最適化するためにAIを使用しています。

このような要求に応えるために、BMW はNVIDIA の Quadro RTX 8000 や RTX 搭載サーバーなどの高度な AI ハードウェアソリューションに依存しています。これらのテクノロジーにより、AI の導入が容易になり、拡張性が向上します。

計算能力は、AIソリューションのさまざまな部分に影響を与えます

AIアプリケーションに計算能力を提供するだけでなく、選択するAIハードウェアは、モデルの性能、モデル変換の必要性、デプロイの柔軟性、および全体的な精度という点でソリューションに影響を与えます。AIモデルは、トレーニングとテストが完了すると、選択したデプロイプラットフォームで実行できる形式に変換されることがよくあります。 

ただし、モデル変換は精度の低下につながる可能性があり、事前に考慮する必要があります。ONNX(Open Neural Network Exchange)などの統合ツールは、多様なハードウェアプラットフォーム全体にAIモデルを展開するための標準化された形式を提供できます。これは、YOLOv8のような一般的なモデルが、複数の展開オプションに対応するために、カスタムトレーニングされたモデルをさまざまな形式でエクスポートするオプションをユーザーに提供する理由でもあります。

エネルギー効率は、AIコンピューティングの未来に不可欠です

高度なAIコンピューティングパワーの影響はAIに限定されず、エネルギー分野にも及んでいます。 

Fig 6. 持続可能な AI ハードウェアへの移行。

例えば、高度な大規模言語モデル(LLM)であるMetaのLLaMA-3は、それぞれ24,576個のNvidia H100 GPUを搭載した2つのカスタム構築されたデータセンタークラスターを使用してトレーニングされました。この堅牢なハードウェア構成により、Metaは処理速度を向上させ、エネルギー消費量を大幅に40%削減することができました。したがって、AIハードウェアの進歩も、よりエネルギー効率の高い運用に貢献しています。

さらに、AIとエネルギーの関係は、サム・アルトマンのような人々の関与により、ますます注目を集めています。OpenAIのCEOとして知られるアルトマンは最近、原子力エネルギー会社Okloを公開しました。Okloは、革新的な核分裂技術により、エネルギー生産を変革し、AI運用に不可欠なデータセンターに電力を供給する可能性を秘めています。過去数年間で、マイクロソフトの共同創業者であるビル・ゲイツと、アマゾンの創業者であるジェフ・ベゾスも原子力発電所への投資を行っています。

サーキットの向こうへ

今後、AIハードウェアの未来は、特に量子コンピューティングの台頭により、大きな飛躍を遂げると予想されます。専門家は、2030年までに量子コンピューティング市場が約650億ドルの価値になる可能性があると予測しています。AIモデルの複雑さが増すにつれて、その潜在能力を最大限に引き出すためには、特殊なハードウェアが不可欠になります。AI専用チップから量子コンピューティングの研究まで、ハードウェアの革新は、より複雑で影響力のあるAIソリューションの開発を推進します。

AIについてさらに詳しく知りたい場合は、GitHubリポジトリをチェックして、コミュニティに参加してください。フォーミュラ1レースロボティクスなど、さまざまな分野でAIがどのように応用されているかについては、最新のブログ記事をご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました