Yolo 深圳
深セン
今すぐ参加

計算能力がAIイノベーションに与える影響を理解する

6 min read

2024年5月16日

AI技術の進歩に伴い、新しく改良されたAIコンピューティング能力の必要性が高まっています。コンピューティング能力がどのようにAIの動きを前進させているかを探りましょう。

人工知能(AI)とコンピューティング能力は非常に密接な関係にあります。コンピューティング能力は、コンピュータシステムがタスクを処理および実行するのに役立つため、AIアプリケーションに不可欠です。これらのアプリケーションは、複雑なアルゴリズムと大規模なデータセットを管理するために、かなりの計算リソースを必要とします。そこでGPUが登場します。GPU(Graphics Processing Unit)は、元々画像およびビデオ処理を高速化するために設計されましたが、AIに必要な集中的なデータ処理および深層学習タスクを管理するために不可欠になっています。

ここ数年、AIの進歩は指数関数的に伸びている。当然ながら、AIのハードウェアの進歩もこの成長に対応し、遅れをとらないようにする必要がある。ある調査によると、GPU 性能は2003年以降、およそ7,000倍に向上している。 

より強力で、より高速で、より効率的なハードウェアにより、研究者やエンジニアはますます複雑なAIモデルを開発できます。AI向けのコンピューティングインフラストラクチャが、人工知能の増大する要求を満たすためにどのように進化しているかを理解しましょう。

AIハードウェア:拡大する議論

AI開発におけるGPUの役割は否定できません。これらの強力なプロセッサは、AIモデルのトレーニングとデプロイに必要な複雑な計算を高速化します。本質的に、これらは現代のAIテクノロジーのバックボーンとして機能します。しかし、注目を集めているのはGPUだけではありません。 

AI 専用に作られたチップが登場し、既存のチップと競合するようになっています。これらのチップは、AI がその役割をより良く、より速く実行できるように、ゼロから構築されています。AI コンピューティングの将来を改善するために、多くの研究と作業が行われています。多くの企業が AI コンピューティング能力に投資しており、これが AI ハードウェアの世界市場が 2023 年に537 億 1,000 万ドルと評価され、2033 年までに約 4,735 億 3,000 万ドルに成長すると予想される理由の 1 つです。

なぜAIハードウェアの進歩が最近話題になっているのでしょうか?特殊なAIハードウェアへの移行は、さまざまな分野におけるAIアプリケーションの需要の高まりを反映しています。AIソリューションを成功させるためには、ハードウェアに起こっている変化を認識し、常に先を行くことが重要です。

AIハードウェアの主要企業

主要なハードウェアメーカーは、次世代ハードウェアの開発を競い合い、社内開発、戦略的パートナーシップ、買収を通じてパフォーマンスと効率を向上させています。

図1. AIハードウェアのリーダー。

アップルは外部GPUの使用から、AIアクセラレーション用のニューラルエンジンを搭載した自社製Mシリーズチップの開発に移行し、厳格に管理されたエコシステムを強化している。一方、Google Tensor Processing UnitTPU)インフラに多額の投資を続けている。TPUは、GPUよりも高速に動作し、より少ないエネルギーで動作するように構築されたAIチップであり、大規模なAIソリューションのトレーニングや展開に最適である。

 同様に、AMDはデータセンターと高性能コンピューティング・アプリケーションをターゲットとしたRadeon InstinctシリーズのアクセラレータでAIハードウェア分野に参入した。また、Nvidia A100やH100Tensor Core GPUなど、AIワークロードに最適化されたGPUの開発に引き続き注力している。最近のアーム・ホールディングスの買収は、多くのモバイル機器を動かすチップ・アーキテクチャの支配力を高めることを目的としている。

これらの確立されたプレーヤーの枠を超えて、多くのスタートアップや研究機関が、新しいAIチップアーキテクチャに挑戦しています。たとえば、Graphcoreは、インテリジェンス処理ユニット(IPU)によるスパース計算を専門としています。Cerebras Systemsは、極端な規模のAIワークロードに合わせて調整された大規模なチップであるWafer Scale Engineを提供しています。

最新のAIハードウェアの進歩

登場した最新のAIハードウェアを見てみましょう。

2024年4月9日、Intel 最新のAIチップ「Gaudi 3」を発表し、NvidiaH100GPU優れた性能を誇った:

  • 電力効率が2倍以上、AIモデルの処理速度が1.5倍高速化。
  • マザーボードにバンドルされている、またはスタンドアロンカードとして、柔軟な構成で利用できます。
  • MetaのLlamaやアブダビのFalconのような多様なAIモデルでテストに成功しており、Stable DiffusionやOpenAIのWhisperによる音声認識など、さまざまなAIモデルのトレーニングとデプロイメントに有効であることが証明されています。
図2. Intelガウディ3。

ガウディ3に先立つ2024年3月18日、NVIDIA 最新のAIプラットフォーム「ブラックウェル」を発表した。このプラットフォームは、様々な分野でのブレークスルーを後押しするよう設計されており、以下のような特徴がある:

  • Nvidia Blackwellを "世界で最もパワフルなチップ "だと主張。
  • 2,080億トランジスタのデュアルダイGPU 10TB/秒のチップ間インターコネクトを誇り、データセンター規模のジェネレーティブAIにおける消費電力と効率の新たな基準を打ち立てます。
    ‍。
  • Google 、アマゾン・ウェブ・サービス、Microsoft 大手クラウド・サービス・プロバイダーは、生成AI、ディープラーニング、クラウド・コンピューティング・サービスの進歩を推進するためにブラックウェルを利用する計画を発表している。
図3. NvidiaBlackwell。

カスタムAIチップの台頭

一方、いくつかのハイテク企業は、自社のサービスを強化するために、独自のカスタムAIチップを開発しています。 

2024年4月10日、Metaは最新バージョンのMeta Training and Inference Accelerator(MTIA)を発表しました。Metaのデータセンターで既に稼働しているこの第2世代チップは、計算能力とメモリ帯域幅の点で優れた性能を発揮しています。これらのアップグレードは、FacebookやInstagramなどのプラットフォーム上でのランキングやレコメンデーションエンジンなど、MetaのAIアプリケーションのパフォーマンスをサポートします。

Fig 4. Metaの最新版MTIA。

同様に、Google、アマゾン、Microsoft 大手企業も今年、カスタム・シリコン・チップを発表した。これは、コスト構造を最適化し、Nvidiaようなサードパーティサプライヤーへの依存を減らすための戦略的な動きだ。

AIハードウェアはどこで使用されていますか? 

AIハードウェアは、さまざまな業界の多様なAIソリューションをサポートしています。ヘルスケアでは、MRIやCTスキャンなどの医療画像処理システムを強化し、複雑なタスクを処理し、大量のデータを効率的に処理して、迅速かつ正確な診断を可能にします。

金融機関は、不正検出と投資最適化のためにAIアルゴリズムを使用してデータを分析します。金融データ分析の複雑な性質上、膨大な計算ワークロードを効果的に処理するための高度なハードウェア機能が必要です。

自動車産業では、自動運転車のリアルタイムセンサーデータの処理に役立ちます。物体検出や衝突回避などのタスクは、迅速な意思決定と乗客の安全のために、強力な処理能力を備えた高度なハードウェアによってサポートされる必要があります。

Fig 5. 自動運転車の頭脳。

小売業者は、AIを活用したレコメンデーションエンジンを使用して、ショッピング体験をパーソナライズし、部門全体の膨大な顧客データを分析して好み​​を予測し、関連製品を提案することで、売上を伸ばしています。多様なデータセットを分析し、パーソナライズされた推奨事項を生成する必要があるため、リアルタイム応答とユーザーエンゲージメントを強化するための高度なハードウェアが求められています。

小売店に関連するもう一つの例は、コンピュータ・ビジョンを使って顧客の行動を監視・分析することだ。小売業者は、顧客がどのように環境と接するかを理解し、人気商品を特定し、足回りのパターンをdetect することができる。これらの知見に基づいて、店舗レイアウトや商品配置を最適化し、売上を向上させることができる。大容量のビデオデータをリアルタイムで処理するには、コンピューティング・パワーが重要である。動きやインタラクションの正確なトラッキングは、堅牢なハードウェアに依存する。それがなければ、データ処理の速度と正確性が損なわれ、顧客行動分析の効果が低下する。

これらはほんの一例に過ぎません。製造業から農業まで、AIハードウェアはあらゆる場所で見られます。

計算能力によるAIのスケーリング

AIハードウェアは、多くの場合、大規模なタスクを処理するために構築されています。世界中の産業におけるAIの導入規模を把握するのは難しいかもしれませんが、スケーラブルなAIは適切なハードウェアの導入にかかっていることは明らかです。

たとえば、BMWとNVIDIAコラボレーションを見てみよう。BMWは年間250万台の自動車を生産しており、その事業規模は計り知れない。BMWは、品質管理や予知保全から物流やサプライチェーン管理まで、製造プロセスのさまざまな側面を最適化するためにAIを活用している。

このような要求に応えるため、BMWはNVIDIAQuadro RTX 8000やRTX搭載サーバーのような先進的なAIハードウェアソリューションに依存しています。これらのテクノロジーは、AIの導入をより簡単でスケーラブルなものにします。

計算能力は、AIソリューションのさまざまな部分に影響を与えます

AIアプリケーションに計算能力を提供するだけでなく、選択するAIハードウェアは、モデルの性能、モデル変換の必要性、デプロイの柔軟性、および全体的な精度という点でソリューションに影響を与えます。AIモデルは、トレーニングとテストが完了すると、選択したデプロイプラットフォームで実行できる形式に変換されることがよくあります。 

しかし、モデルの変換は精度の低下につながる可能性があり、事前に検討する必要がある。ONNX Neural Network Exchange)のような統合ツールは、多様なハードウェア・プラットフォームでAIモデルを展開するための標準化されたフォーマットを提供することができる。これはまた、YOLOv8 ような人気のあるモデルが、複数の展開オプションに対応するために、多くの異なるフォーマットでカスタムトレーニングしたモデルをエクスポートするオプションをユーザーに提供している理由でもある。

エネルギー効率は、AIコンピューティングの未来に不可欠です

高度なAIコンピューティングパワーの影響はAIに限定されず、エネルギー分野にも及んでいます。 

Fig 6. 持続可能な AI ハードウェアへの移行。

例えば、先進的な大規模言語モデル(LLM)であるメタのLLaMA-3は、それぞれ24,576個のNvidia H100 GPUを搭載した2つの特注データセンター・クラスターを使用して学習された。この堅牢なハードウェア・セットアップにより、メタは処理速度を向上させ、エネルギー消費を40%大幅に削減することができた。つまり、AIハードウェアの進歩は、よりエネルギー効率の高いオペレーションにも貢献しているのだ。

さらに、Sam アルトマンのような人物が関わることで、AIとエネルギーの結びつきはより注目を集めている。OpenAIのCEOとして知られるアルトマンは最近、原子力エネルギー企業Okloを一般公開した。革新的な核分裂技術を持つOkloは、エネルギー生産を変革することを目指しており、AIの運用に不可欠なデータセンターに電力を供給する可能性がある。ここ数年、Microsoft共同創業者ビル・ゲイツとアマゾンの創業者ジェフ・ベゾスも原子力発電所に投資している。

サーキットの向こうへ

今後、AIハードウェアの未来は、特に量子コンピューティングの台頭により、大きな飛躍を遂げると予想されます。専門家は、2030年までに量子コンピューティング市場が約650億ドルの価値になる可能性があると予測しています。AIモデルの複雑さが増すにつれて、その潜在能力を最大限に引き出すためには、特殊なハードウェアが不可欠になります。AI専用チップから量子コンピューティングの研究まで、ハードウェアの革新は、より複雑で影響力のあるAIソリューションの開発を推進します。

AIについてさらに詳しく知りたい場合は、GitHubリポジトリをチェックして、コミュニティに参加してください。フォーミュラ1レースロボティクスなど、さまざまな分野でAIがどのように応用されているかについては、最新のブログ記事をご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる