イベント

AWS、30%性能が向上したArm CPU「Graviton4」、性能4倍の新AIアクセラレータ「Trainum 2」などを発表

NVIDIAとの戦略提携も拡大し、NVIDIAのフアンCEOがサプライズゲストとして登場
~アダム・セリプスキーCEO基調講演レポート

AWS アダム・セリプスキーCEO(左)と、サブライズ登場したNVIDIAのジェンスン・フアンCEO(右)

 パブリッククラウドサービスを提供するクラウドサービスプロバイダー(CSP)の米Amazon Web Services(AWS)は、11月27日~12月1日(米国時間、日本時間11月28日~12月2日)の5日間にわたり、年次イベント「AWS re:Invent 2023」(以下、re:Invent 2023)を、米国ネバダ州ラスベガス市内の会場で開催している。

 11月28日午前(米国時間、日本時間11月29日未明)には、同社のアダム・セリプスキーCEOによる基調講演が行われ、生成AIや同社の新半導体など各種の発表が行われた。この中で、AWSは同社が展開してきたArm CPU「Graviton」シリーズの最新製品となる「Graviton4」(グラビトンフォー)、および学習用のAIアクセラレータとなる「Trainium2」(トレニアムツー)を発表した。

 また、NVIDIAの戦略的提携の拡張に関する発表が行われたほか、生成AIを活用した新しいAIアシスタント機能となる「Amazon Q」などに関しての発表も行われた。

AWSのGraviton4

Neoverse V2へと進化したGraviton4、96コアCPUで12チャネルのメモリに進化、30%の性能向上

 AWSはイスラエルの半導体設計企業「Annapurna Labs」を買収して子会社とし、自社パブリッククラウドサービス向けのカスタムチップを開発するとともに、TSMCなどのファウンダリーで製造を行い、同社のEC2(Elastic Compute Cloud、AWSの仮想ハードウェアサービスのこと)を経由して、AWSの顧客が利用できるようにしている。すでにAWSは、Arm CPUの「Graviton」シリーズ、AI学習アクセラレータの「Trainum」シリーズ、AI推論アクセラレータの「Inferentia」(インファレンシア)シリーズ、そしてIPU/DPUに相当する「Nitro」(ナイトロ)シリーズといったカスタム半導体製品を自社のパブリッククラウドサービス向けに投入している。

 11月28日午前(米国時間)にAWSが行ったre:Invent 2023の基調講演の中で、AWS CEOのアダム・セリプスキー氏は「われわれは2018年に最初のGravitonを発表して以降、着実に進化させてきた。今年は新しい製品としてGraviton4を発表する。CPUコア数が50%増え、メモリも75%増加しており、平均的に30%性能が向上し、データベースでは40%、Javaでは45%も性能が向上する」と述べ、Graviton3世代に比較して性能が向上するとアピールした。

AWS CEO アダム・セリプスキー氏

 セリプスキー氏の講演では、Graviton4の具体的なスペックなどは明らかにされていなかったが、AWSが公開したBlogでは、ArmのNeoverse V2ベースで最大96コア(Graviton3ではNeoverse V1の64コアだった)、2MBのL2キャッシュを備えるなどのスペックが公表されている。また、メモリは12チャネルのDDR5-5600になっており、Graviton3世代では8チャネルだったので、4チャネルだけメモリの帯域幅が上がっていることになる。

Graviton4の特徴

 なおAWSは、このGraviton4を搭載したインスタンスとしてR8gというEC2インスタンスを公開しており、Graviton3世代のR7gインスタンスに比較して、3倍のvCPUとメモリ容量を提供することが可能になるという。現在、R8gインスタンスはプレビュー申し込みを受け付け中になっている。

Graviton4を採用したEC2インスタンスはR8g

性能は4倍、電力効率が2倍になったTrainium2、1万個までスケールアップして最大で65EFLOPSの性能を実現、24年に導入

 セリプスキー氏はGraviton4の発表と同時に、AI学習用のアクセラレータ「Trainium」の最新製品となるTrainium2を発表した。AWSはAIアクセラレータとして、学習用のTrainiumと推論用のInferentiaという2つのカスタムチップをすでに投入しているが、今回は学習用のTrainiumが最新版に強化された形になる。

 セリプスキー氏は「今日第2世代のTrainiumとなるTrainium2を発表できて、とても興奮している。Trainium2により、より大規模な生成AIのファンデーションモデルの学習を高速に終えることができるようになり、生成AIの開発がより加速することになるだろう」と述べ、Trainium2を投入することで、増大し続けるAI学習の演算需要をまかなうことができると、期待感を表明した。

 AWSによれば、Trainium2は従来世代と比較して性能が4倍になり、メモリ容量は3倍に、電力効率は2倍になっていることが大きな特徴。AWSが公開した写真では、2つのチップが1つのパッケージ上に混載されていることが確認できる。

Trainium2(写真提供:AWS)
Trainium2の特徴

 EC2インスタンスとしては、Trn2というインスタンスで提供される予定で、インスタンス1つに付き16個のTrainium2が提供される。Trn2インスタンスでは最大でTrainiumが1万個までスケールアップできるようになっており、それぞれのクラスターはEFA(Elastic Fabric Adapter)というAmazon独自のネットワークにより接続され、最大で65EFLOPSまで処理能力を拡大できる。それにより、3000億パラメーターのLLMの学習では、従来モデルで数カ月かかっていたのが数週間に短縮されるという。

 なお、Trainium2およびそのインスタンスとなるTrn2の提供開始は、2024年が予定されており、今回は明らかにされなかったアーキテクチャなどはその段階で明らかにされる可能性が高い。

ジェンスン・フアンCEOがサプライズ登場したNVIDIAとの戦略的提携の強化が発表される

 今回の基調講演でもう1つ発表されたハードウェア関連の話題が、NVIDIAとの戦略的提携の強化だ。セリプスキー氏は、ゲストのリストには含まれていなかった、NVIDIA CEO ジェンスン・フアン氏をサプライズゲストとして呼び、AWSとNVIDIAとの提携に関しての説明を行った。

AWSのre:Invent 2023の基調講演にサプライズ登場したNVIDIAのジェンスン・フアンCEO(右)、左はAWSのアダム・セリプスキーCEO

 セリプスキー氏は「われわれはCSPの中で最初にGPUインスタンスを導入して、長い間パートナーとしてやってきた。Hopper世代のGPUも最初に導入し、既に多くのユーザーがAWS上でNVIDIAのGPUを使っている」とフアン氏とNVIDIAを紹介すると、フアン氏は「われわれ2つのチームは、NVIDIA AI StackやLLMファンデーションモデルのNemoなど多くのAI用のソフトウェアライブラリをAWSのカスタマーに提供していく」と述べ、両社の関係が、単にNVIDIAがGPUというハードウェアをAWSに提供するだけでなく、AIソフトウェアの開発環境を共同で提供していく形に進化すると強調した。

 今回フアン氏は、AWSに提供する新しいハードウェアに関していくつかの発表を行っているが、ハードウェア関連では、同社が5月のCOMPUTEX 23で発表した、NVIDIAのArm CPU(Grace)とNVIDIA GPU(Hopper)が1モジュールになったGH200のマルチノード版を、AWSのEC2インスタンスとして提供する計画を明らかにした。GH200 NVL32という32個のGH200がNVLinkとNVSwitchを利用して接続されたバージョンが、今後EC2インスタンスとして提供される計画(今回の発表では、いつからかは明らかにされていない)。

COMPUTEX 23でNVIDIAが公開したGH200、AWSが採用するのはそのマルチノード版(NVL32)となる

 ほかにも、H200がP5eとして、L4がG6として、L40SがG6eとしてといったように、NVIDIA GPUがEC2インスタンスとして提供される計画であることも明らかにされている。

 また、NVIDIAが3月のGTCで発表したDGX Cloud(同社がオンプレミス向けに販売しているDGXのクラウド版)の提供が開始される計画で、その最初の製品が前述のGH200 NVL32を搭載したDGXになることも明らかにされている。それにより1兆パラメーターのLLMなども実用的な時間で学習することが可能になると、NVIDIAは説明している。

 このほかにも「Project Ceiba」と呼ばれる計画では、GH200 NVL32とAmazon EFA(TitanベースのIPU/DPU)との組み合わせで最大16384個のGH200が1つの巨大なGPUとして構成され、最大65EFLOPSの性能が実現されるとした。

AWS版Copilot/Duet AIとなるAmazon Qが発表される、月額20ドルとMicrosoft/Googleよりも安価な価格設定

 セリプスキー氏は同氏の基調講演の後半では、かなりの時間を割いて、AWSが導入する新しいAIアシスタントサービス「Amazon Q」の発表とその紹介を行った。Amazon Qは、非常にざっくり言えばMicrosoftが「Copilot」、Googleが「Duet AI」と呼んで導入している、ビジネスパーソンや開発者などの仕事を助けるようなAIアシスタントサービスになる。

Amazon Qを発表するAWSのセリプスキーCEO
Amazon Q

 セリプスキー氏はAmazon Qの機能について、大きく分けると「AIやアプリの開発者やプログラマーを助ける機能、ビジネスパーソンを助ける機能、従業員などをAIで助ける機能、企業の顧客を助ける機能の4つがある」と述べ、それぞれの機能に関しての説明を行った。

Amazon Qの4つの柱

 開発者やプログラマーを助ける機能では、例えば「WebアプリをAWSで作る方法は?」とプロンプトに入力すると、Qが自社のデータベースやAWSのデータベースを参照してきて答えを探してくれる。従来であれば、単語(Webアプリ、AWS、作成)を入れて検索していたものが、より自然な言葉でAIに聞けるようになる。あるいは、AIがコードを自動生成してくれるツール「Amazon Code Whisperer」を利用している場合などには、そのコードがどのような仕組みでどう動いているのかを説明してもらえるようになる。

 ビジネスパーソン向けの機能としては、Microsoft 365、Slack、Jiraなどに標準で用意されているコネクターツールを使って接続し、そうした外部のツールからも情報を引っ張ってくることなどが可能になる。外部データも活用して、社内のガイドラインを見つけてくるといった使い方などが可能になるという。

 従業員向けの機能としては「Amazon Q in Amazon QuickSight」では、AWSのBIツールであるAmazon QuickSightと連携が可能で、例えば「先月の売り上げが急速に伸びたのはどうして?」とAmazon Qに質問すると、その理由をAmazon Qが分析し、結果をグラフィックで表示してくれる。

Amazon Q in Amazon QuickSight

 また、企業顧客向けには「Amazon Q in Amazon Connect」が用意され、サポートセンター向けのサービスであるAmazon Connectにおいて、よりインテリジェントなサービス提供が可能になる。

 AWSによれば、Qはすでにプレビュー提供が開始されており、ビジネスユーザー向けが1ユーザーあたりの月額料金が20ドル、プログラマーや開発者向けが25ドル。Copilot for Microsoft 365とGoogle Workspace Duet AIの、月額30ドルという価格よりも安価に設定されていることは注目に値する。

 このほかにもS3ストレージの高速版となる「Amazon S3 Express One Zone」、「Amazon Bedrock customization capability」の3つのカスタマイズ機能(Fine Tuning、RAG with Knowledge Bases、Continued Pre-training for Amazon Titan Text Lite & Express)の提供、生成AIを企業システムで活用するための「Agents for Amazon Bedrock」、生成AIの信頼性を担保する「Guardrails for Amazon Bedrock」、Zero-ETLの拡大、「Amazon DynamoDB zero-ETL integration」、「Amazon DataZone AI recommendations」など各種のサービスが発表された。

Amazon S3 Express One Zone