クラウドからエッジまで:ArmがAIスタックのスケーリングを支える

  • 本記事は、2025年10月2日にArm Newsroomに掲載された英語記事を日本語訳したものです。

AIはデータセンターからデバイスまで、あらゆる領域に急速に広がっています。このような状況下での真の課題は、インテリジェントなコンピューティングの構築ではなく、それをスケールさせるための基盤をいかに築くかという点にあります。

AIは単一の課題として捉えられるものではなく、世界の主要テクノロジー企業によって形作られる広大で複雑なエコシステムです。この数兆ドル規模の変革の中で、常に存在感を高めているアーキテクチャ、それがArmです。

業界の巨人が築き、Armが支えるAIデータセンター

Armをはじめ、NVIDIA、AWS、Microsoft、Google、Oracle、OpenAIといったAI分野の主要企業が連携し、次世代データセンターの構築を推進しています。トレーニングや推論、さらにはコスト効率の高いスケーリングへの需要の高まりを背景に、AIインフラへの投資額は数兆ドル規模に達すると見込まれています。

2025年までに、主要ハイパースケーラーに出荷される演算リソースの半数がArmベースになると予測されています。AWS(Graviton)、Google Cloud(Axion)、Microsoft Azure(Cobalt)といった企業は、すでにArmベースのチップをクラウドインフラに採用しており、エネルギー消費とコストの大幅な削減に加えて、高いスケーラビリティを実現しています。

NVIDIAのGrace CPUはArm Neoverseを基盤としており、Grace Blackwell AIスーパーチップの中核を成しています。このチップは、米国の主要なハイパースケール・クラウド・プロバイダー4社だけでも、すでに360万ユニットの注文を獲得しています。これまでに10億以上のArm Neoverse CPUがデータセンター向けに出荷されており、世界的に進むデータセンター構築ラッシュの中で、Armアーキテクチャが中核的な役割を担っていることを示しています。

最先端のAIデータセンター・スタックにおいて、Armはスケーラビリティ、効率性、そして柔軟なパフォーマンスを実現する共通基盤として機能し、従来のアーキテクチャでは対応しきれないニーズにも応えています。

Armは他に類を見ない価格性能比と電力効率を実現しています。

  • NVIDIAのGrace Hopperスーパーチップは、x86ベースのシステムと比べて、モデル学習で最大8倍、大規模言語モデル(LLM)推論で4.5倍の性能を発揮します。
  • GoogleのAxionは、x86ベースのシステムと比較して、レコメンダーシステムで最大3倍、LLM推論で2.5倍の性能を発揮し、コストを最大64%削減しています。
  • 2024年12月時点で、AWSのEC2キャパシティの50%以上がGravitonベースで構築されています。

さらに、コンサルティング会社Signal65が実施した最近の分析によると、Arm Neoverseを基盤とするAWS Graviton4チップは、価格性能比で競合をリードするだけでなく、エンタープライズ向けのワークロード全体において、AMDおよびIntelのx86チップを大きく上回るパフォーマンスを示しています。例えば、Signal65のベンチマークテストでは、Graviton4はAMDのチップに対し、LLM推論性能で最大168%、価格性能で220%もの向上を示しました。さらにIntelのチップと比較しても、ネットワークスループットで53%、機械学習(ML)トレーニング速度で34%の優位性を記録しています。これらの結果は、AIと汎用演算タスクの両方におけるArmアーキテクチャの強みを示しています。

クラウドからエッジまで、AIが必要とする新たなコンピュート基盤

AIはもはやデータセンターにとどまるものではありません。その活用範囲は広がりを見せています。スマートフォンやPC、低消費電力のセンサーから高性能な産業用アプリケーションに至るまで、あらゆるIoTデバイスがオンデバイスでの生成AI機能を求めるようになり、ユーザー体験のあり方が大きく変わりつつあります。

この領域でも、Armは他にはない優位性があります。コンシューマーデバイス向けに新たに発表された「Arm Lumex Compute Subsystem(CSS)」プラットフォームは、アシスタント機能、音声翻訳、パーソナライズなどのリアルタイムなオンデバイスAIユースケースを実現し、SME2に対応した最新のArm CPUにより、AI性能を最大5倍向上させます。一方、世界初のArmv9対応エッジAIプラットフォームは、IoTアプリケーションに特化した設計で、10億パラメータを超えるオンデバイスAIモデルの実行を可能にしています。

Armのコンピュート基盤は、クラウドからエッジまで広がる変革を強力に支えており、そのあらゆる場面で拡張できるように構築されています。

差別化の鍵はソフトウエア——AI時代を支えるArmのツール群

AIにおいて、基盤を提供するのはハードウエアですが、体験を形作るのはソフトウエアです。AIワークロードがますます複雑化し、その適用範囲が広がる中、開発者には、革新のスピードと柔軟性の双方を備えたエコシステムが求められます。ここで、Arm独自の強みであるクラウドからエッジまでを一貫してカバーする統一アーキテクチャと、堅固かつ最適化されたソフトウエアエコシステムの存在が、より一層際立つのです。

Armの開発者コミュニティは現在2,200万人を超えており、彼らは同じコード、ツール、フレームワークが、データセンター規模のモデル学習からエッジでのリアルタイム推論に至るまであらゆるデバイスでシームレスに動作するエコシステムの恩恵を受けています。この一貫したアーキテクチャにより、開発は迅速化し、最適化も効率的に実施できます。また、重複したエンジニアリング作業を伴うことなく、幅広い領域への展開が可能になります。

PyTorch、ExecuTorch、TensorFlow Lite、MediaPipeといった主要なフレームワークは現在、Armベースのシステム向けに深く統合・最適化されています。その中核を支えるのがArm KleidiAIです。KleidiAIは、軽量かつオープンソースの最適化レイヤーであり、Arm向けに最適化されたマイクロカーネルを内部で自動的に活用します。これにより開発者は、コードを変更することなく、ハイパースケールなクラウドプラットフォームからスマートフォン、さらには組み込みデバイスに至るまで、幅広い環境で、高いパフォーマンスを自動的に引き出すことができます。

例えば、Graviton4上では、KleidiAIの活用により、Llama 3の「最初のトークンが生成されるまでの時間(Time to First Token)」がベースライン比で最大2.5倍高速化されます。また、MediaPipeを用いたモバイル実装では、Gemma 2Bのようなモデルにおいて最大30%のパフォーマンス向上が確認されています。AIファクトリーの運用からエッジでのチャットボットの展開に至るまで、Armによるソフトウエア体験は予測可能で高性能、かつ電力効率にも優れています。

このようにシームレスかつシステムレベルで最適化されたソフトウエア対応こそが、Armのアプローチを際立たせる要因です。開発者は、分断されたスタックに悩まされたり、バックエンドの作業を繰り返したりする必要がなくなります。そして、AIのパフォーマンスと効率を最大化するためにハードウエアとソフトウエアが緊密に設計されたエコシステムの利点を、そのまま活用できるようになります。

ワットあたり性能が全てといわれるAI時代において、Armのソフトウエアエコシステムは単に時代に追随しているのではなく、開発者のニーズに的確に応えながら、イノベーションの加速を支えています。

スケーラブルなAIを支え続ける

AIは、数兆ドル規模のデータセンターから次世代スマートフォン、車載システムに至るまで、これまでにないスケールで進化を遂げています。こうした多様な領域をつなぐアーキテクチャこそが、Armです。

ハイパースケーラーでの活用の広がり、柔軟なエッジコンピューティング、そしてAIに最適化された充実のソフトウエアエコシステムを背景に、Armはこれまでも、そしてこれからも、AIインフラの中核としてその存在感を発揮し続けます。

関連リンク
英語記事:From Cloud to Edge, Why Arm is Built for Scaling Your AI Stack
Armについて

LATEST ARTICLES

最新記事

TAGS

タグから探す

すべてのタグ