ニュース
Akamai、数千基のNVIDIA Blackwell GPUによる分散型AIプラットフォームを構築
2026年3月17日 08:00
米Akamai Technologies(以下、Akamai)は現地時間3日、グローバルな分散型クラウドインフラストラクチャを強化するため、数千基のNVIDIA Blackwell GPUを取得し、クラウドインスタンスとして展開すると発表した。
これにより、AIの研究開発、ファインチューニング(微調整)、トレーニング後の最適化を統合的に行うプラットフォームが実現し、Akamaiの広大なグローバルネットワーク全体で、AI推論(インファレンス)のワークロードを、最適化されたコンピューティングリソースへインテリジェントにルーティングできるとしている。また、このアーキテクチャは、中央集約型のデータセンターに起因するレイテンシー(遅延)やデータ転送コスト(エグレスコスト)の問題を解消し、高速な推論をサポートするように設計されているとしている。
Akamaiは、AIの大規模な導入を阻む最大の障壁として、56%の組織がレイテンシーを挙げているという調査を紹介し、世界中を単一の低レイテンシー(低遅延)な基盤として扱うことでこのギャップを埋め、現実世界のスピードで意思決定が求められるフィジカルAIやエージェント型AIの基盤となるインフラを提供するとしている。
NVIDIA Blackwell AIインフラストラクチャの統合により、専用GPUクラスターでAIワークロードを処理して迅速なレスポンスを生成するほか、大規模言語モデル(LLM)をオンサイトで最適化し、データのプライバシー保護や地域のコンプライアンス要件をサポートできると説明。また、独自のデータに基づいて基盤モデルを微調整・適応させ、特定のタスクにおける精度を向上できるとしている。
プラットフォームエンジニアや開発者が AIアプリケーションやデータ集約型のワークロードをエンドユーザーの近くで構築・実行できるツールを提供することで、効率的なスループットを実現する。NVIDIA AIインフラストラクチャを活用したAkamaiのソリューションは、従来のハイパースケーラーのインフラと比較して、レイテンシーを最大2.5倍低減し、AI推論にかかるコストを最大86%削減するという。
プラットフォームは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したNVIDIA RTX PRO ServerおよびNVIDIA BlueField-3 DPUと、世界4400拠点以上に展開するAkamaiの分散型クラウドコンピューティングインフラおよびグローバルエッジネットワークを組み合わせて構築する。
Akamaiは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUの初期導入分に対して強い需要を確認しており、クラウドインフラ戦略の一環として、今後も継続的にGPU容量を増強していく予定としている。