イベント

AWS、re:Inventで新生成AIモデル「Amazon Nova」や生成AI学習向けの新しいEC2インスタンスなどを発表

 クラウド・サービス・プロバイダー(CSP)のAWS(Amazon Web Services)は、12月2日~12月6日(米国時間)に、同社の年次イベント「re:Invent 2024」(リ・インベント2024)を米国ネバダ州ラスベガス市において開催している。12月3日には、同社 CEO マット・ガーマン氏による基調講演が行われ、同社が今後サービスインする予定の新サービスや新インスタンスなどに関しての説明が行われた。

 この講演にはAWSの関連会社となるAmazon 社長兼CEOとなるアンディ・ジャシー氏も登壇し、Amazonが新しい生成AIモデルとなる「Amazon Nova」(アマゾン ノヴァ)を発表し、すでに提供開始したことを明らかにした。

 また、昨年発表された学習用のAIアクセラレーター「Trainium2」(トレニアムツー)を利用した新インスタンス「Trn2」および「Trn2 UltraServers」の一般提供開始や、来年にNVIDIAのBlackwellを搭載したインスタンス「P6」の提供を開始する計画を明らかにしたほか、新しい学習用のAIアクセラレーターとしてTrainium2の4倍の性能を持つ「Trainium3」(トレニアムスリー)を2025年中に投入することが明らかにされ、生成AIの演算環境をさらに強化するとした。

AWS CEOのマット・ガーマン氏

Amazon Bedrockから活用できる新しい生成AIモデル「Amazon Nova」を発表

 AWS CEO マット・ガーマン氏の基調講演にゲストとして登壇した、Amazon 社長 兼 CEO アンディ・ジャシー氏は、AmazonがAWSをどのように活用して生成AIを実現しているのかなどを説明した。

 ジャシー氏は、2003年にAmazonの一部門としてAWSが立ち上げられた時の立ち上げメンバーの1人で、2021年までAWSのCEOを務めた後、Amazon創業者であるジェフ・ベゾフ氏のCEO退任に伴ってAmazonの社長兼CEOに就任した経緯があり、古巣が開催しているイベントに戻っての講演という形になった。

Amazon 社長兼CEOのアンディ・ジャシー氏

 ジャシー氏は、Amazonの各種サービスにはAWSの生成AIインフラ(Amazon BedrockなどのマネージドサービスやAmazon EC2などのハードウェア)を利用して生成AIの機能が実装されていると説明した。例えばAmazonのECサイトでは小売事業者が製品の説明を書く時に生成AIを利用して説明文章を生成してもらう機能が実装されている事例を紹介した。

 その上で、「マシンラーニング/ディープラーニングのAIでは、TensorFlowやPyTorchなどのフレームワークを自由に選ぶことができた。生成AIのファンデーションモデルも同じことで、使う側が自由に必要なファンデーションモデルを選べるようになっている点が重要だ」と述べ、生成AIのアプリケーションを構築したい顧客にとっては、目的に応じてファンデーションモデルを選べるようになっていることが望ましく、そうしたことを望む顧客に対して、Amazonが自社で開発した、新しい生成AIのファンデーションモデルをAWSのBedrock向けに提供開始すると明らかにした。

こうしたAmazonのサービスにもAWSのAIソリューションが活用されている

 ジャシー氏によれば、Bedrockから利用できる(現時点ではBedrockからのみ利用できるのは従来のTitanと同じ)新しいファンデーションモデルは「Amazon Nova」で、Novaはラテン語でNew(新しい)の意味となる言葉であるため、無理やり日本語にすると「新密林」という意味になる。ジャシー氏によれば「Amazon Novaはわれわれが新しく開発したファンデーションモデルで、性能面でも、コスト面でも業界をリードするものだ」と述べ、Amazon Novaの競争力の高さを説明した。

Amazon Nova

 Amazon Novaには、「Micro」(テキストのみ)、「Lite」(マルチモーダル)、「Pro」(より高度なマルチモーダル)、「Premier」(より高性能なマルチモーダルで、カスタムモデルにも対応)という4つのSKUが用意されており、Micro、Lite、Proに関しては本日より一般提供が開始され、Premierに関しては2024年の第1四半期のリリースが予定されている。

Amazon Novaの4つのSKU

 ジャシー氏は「Amazon Novaは他社のファンデーションモデルと比較して高い性能を持っており、同時に費用対効果は75%も優れている」と述べ、実際に他社が提供しているファンデーションモデルとのベンチマークデータなどを示して、より高い性能を実現していると説明した。

 Amazon Nova MicroであればGemini 1.5 Flash 8BとLlama 3.1 8Bとの比較、Amazon Nova LiteならClaude 3.5 Haiku、GPT4-o Mini、Gemini 1.5 Flash、Llama 3.2 11Bと比較し、Amazon Nova Proであれば、Claude 3.5 Sonnet V2、GPT-4o、Gemini 1.5 Pro、Llama 3.2 90Bと比較したデータを公開し、それぞれ他社のファンデーションモデルに高い性能を実現するとアピールした。

Microのベンチマーク
Liteのベンチマーク
Proのベンチマーク
75%コスト効率が高いとアピール

 また、画像生成専用の「Amazon Nova Canvas」、動画生成専用の「Amazon Nova Reel」も公開され、同日より一般提供を開始したことが明らかにされている。Canvasはプロンプトから自然言語で入力することによって画像の生成が可能なツールで、カラースキームとレイアウトの調整が可能になっている。Reelはパン、360°回転やズームといったカメラ制御が可能な動画生成ツール。現状は6秒の動画生成に対応しているが、間もなく、それが2分に拡張される計画だ。

Amazon Nova Canvas
Amazon Nova Reel

 なお、詳細は明らかにされなかったが、「Amazon Nova Speech-to-Speech」、「Amazon Nova Any-to-Any」というファンデーションモデルも間もなく提供開始されるとされており、今後もAmazon Novaの拡張が続いていく計画だとジャシー氏は明らかにした。

Amazon Nova Speech-to-SpeechとAmazon Nova Any-to-Any

昨年発表されたAI学習アクセラレーター「Trainium2」のEC2インスタンスを発表

 AWS CEO マット・ガーマン氏は「コンピュート」、「ストレージ」、「データベース」、「AI推論」、そして最後にAWSがSaaSとして提供している「Amazon Q」の大きくわけて5つのテーマで同社のソリューションを説明した。

 ガーマン氏は「AWSではサービス開始当初からEC2と呼んでいるコンピュート向けのサービスを提供してきた。EC2ではGravitonシリーズのようなArmベースのカスタムCPUや、Nitroのようなカスタムチップベースのネットワークなど、他社に先駆けてユニークなカスタムシリコンなどを提供してきた」と述べ、AWSが最新のGraviton4などの自社設計Armプロセッサーがx86プロセッサーなどに比べて高い性能と電力効率を実現していることをアピールした。

 その上で、現状では大規模に生成AIを展開するユーザーが高い関心を持っているGPUの話題について触れ、「生成AI向け学習のほとんどはGPUで処理されているのが現状。これまでP5/P5eなどのNVIDIA GPUのインスタンスを提供してきたが、来年の初頭にはNVIDIAのBlackwellを採用したP6インスタンスを導入する」と述べ、NVIDIAが3月に発表した次世代GPU「Blackwell」(製品名としてはB200/B100)を搭載したインスタンスを、P6インスタンスとして来年の初頭に投入することを明らかにした。

 AWSは現状、Hopperアーキテクチャ世代のB100をP5として、H200をP5eとして提供しているが、それらに加えてBlackwellベースのP6を投入することで、高まり続けるGPUへのニーズを満たしていく計画だ。ただし、現時点ではP6の詳細(どんな構成になっているのかなどに関して)は明らかにされていない。

NVIDIA Blackwellを搭載したP6インスタンスは来年の早い時期に導入される計画

 昨年のre:Invent 2023で、同社は生成AI学習アクセラレーターの「Trainium2」を発表したが、本年のre:Invent 2024では、そのTrainium2を16基から構成されたEC2インスタンスとなる「Trn2」、およびそのTrn2をNeuronLinkというAWS独自のインターコネクト(AWS版NVLinkと考えるとわかりやすい)で接続してスケールアップすることで4クラスター構成にし、64基のTrainium2を利用できるようにした「Trn2 UltraServers」を発表した。

 AWSによれば、GPUベースのインスタンス(具体的にはP5/P5eのこと)と比較して、30~40%高い価格性能比を実現しているので、GPUよりも低価格なAI学習ソリューションを探している顧客向けとのこと。

 性能は16基のTrn2が20.8PFLOPS(FP8時)、Trn2 UltraServersが83.2PFLOPS(FP8時)となっており、そうした性能を得るのに、GPUよりも低コストで利用できることが特徴となる。

Trn2
Trn2 UltraServers
前日基調講演でTrainium2を公開するAWS 上級副社長 ピーター・デサントス氏

 またガーマン氏は、そうしたTrainium2の後継として「Trainium3」の計画を示し、2025年中にEC2インスタンスとして利用できることにすることを明らかにした。Trainium3は、3nm(どこのファウンダリーかは明らかにされなかった)のプロセスノード(製造技術)で製造され、Trainium2に比べて電力効率は40%改善される一方、性能は2倍になることが明らかにされている。

Trainium3

 また、Apple マシンラーニング・AI 上級部長 ビノット・デュピン氏が登壇し、AppleがApple Intelligenceのようなエンドユーザー向けのAIソリューションの構築に、AWSのカスタムシリコン(Graviton3やInferentia2)をすでに利用していること、そして今回発表されたTrn2などのTrainium2に関してもプレビューの段階から活用しており、今後正式に活用していく計画であることが明らかにされた。

S3ストレージの利活用をより進めるAmazon S3 TablesとAmazon S3 Metadataを発表

 ストレージ関連の話題では、AWSの特徴の1つである、低価格で高性能なストレージとなるS3に関しての新発表が行われた。AWSでは、ストレージとEC2のような演算ハードウェア環境を切り離して設計しており、AWSの顧客がEC2のハードウェアとS3のストレージのうち、自社の目的にあった適切なものを選択する仕組みになっている。

 そのS3ストレージに関しては「Amazon S3 Tables」と「Amazon S3 Metadata」の2つが新しく発表されている。これは、S3ストレージに何らかの表形式のデータを保存しているユーザーにとって朗報の機能で、表形式のデータに対してApache Icebergの高度な分析機能を利用して、データの利活用ができるようになる。表形式データの格納に最適化された新しいバケットタイプを導入し、テーブルを素早く作成することで、データレイクへのアクセスを高速に行えるという。

 Amazon S3 Metadataでは、オブジェクトデータがアップロードされると自動的にメタデータを取得し、Amazon S3 Tablesに格納して、そこで実現されるデータの分析機能などを利用して、S3に格納されたデータの利活用が可能。AWS Gluを介して、Amazon Data Firehose、Athena、Redshift、EMR、QuickSightなどとも連携できるとした。

 Amazon S3 TablesとAmazon S3 Metadataを活用することで、S3にアップロードしたデータをより効率よく活用してAmazon Bedrockを利用してAIアプリケーションを構築したりすることが可能になるので、要注目の機能となる。

Amazon S3 Tables
Amazon S3 Metadata

SageMakerは次世代へと進化し、ユーザー企業が5倍になったBedrockにも新機能が追加される

 生成AI・推論の話題では、次世代のSageMaker、Amazon Bedrockの拡張、Auroraなどのデータベースの拡張などが紹介された。

 次世代SageMakerでは「SageMaker Unified Studio」、「SageMaker Lakehouse」、「8つのアプリケーションとのZero-ETL統合」などが発表されている。この中でも要注目なのはSageMaker Unified Studioで、EMR、Glue、Redshift、 Bedrock、SageMaker Studioで利用可能な機能を統合し、開発者はデータの保管場所とAIアプリケーションを開発する上で最適なツールを選択して利用できるようになる。このSageMaker Unified Studioの新しい使い勝手が、次世代SageMakerの「次世代」という言葉の意味になる。

次世代のSageMaker
SageMaker Unified Studio
SageMaker Lakehouse

 また、生成AIアプリケーションやAIエージェントを開発する環境として提供されている「Bedrock」では、「ユーザー企業が昨年比で5倍になった」(ガーマンCEO)と、生成ブームの中で顧客数が大きく増えたことがアピールされた。そうしたBedrockでも、いくつかの機能強化が実現されている。

 それが「Model Distillation」(モデル蒸留)、「Amazon Bedrock Guardrails Automated Reasoning check」、「Multi-Agent collaboration」の3つになる。Model Distillationは訳語のモデル蒸留からもわかるように、LLMなどのモデルから必要な部分だけを取り出し、不必要な部分を削るなどして推論時にモデルをより小型にして、性能やコストの最適化を行う。

 Amazon Bedrock Guardrails Automated Reasoning checkは、すでに提供されているBedrockのガードレール機能(AIが暴走しないための防止装置)のオプションとして用意されるもので、Automated Reasoning(自動推論)と呼ばれる手法を利用して、AIが必要な選択肢を検討して答えを出しているのかなどの手法により回答が妥当なのかどうかなどを検証するためのツールになる。

Model Distillation
Amazon Bedrock Guardrails Automated Reasoning check
Multi-Agent collaboration

 またデータベース関連では、Auroraの機能拡張となる「Amazon Aurora DSQL」、DynamoDBの機能拡張となる「Amazon DynamoDB global tablesでマルチリージョンの強い整合性モデルをサポート」が発表されている。

 前者はマルチリージョンに置かれるデータベース間で、時間の同期などが行われることで、事実上無制限のスケーラビリティを実現するSQLデータベース。後者はすでに提供されているAmazon DynamoDB global tablesに、マルチリージョンでかつ強い整合性モデルを実現する機能が追加される。世界各地に散らばるデータベースの整合性を気にしなくても、データの整合性が担保されるため、アプリケーション開発者などが、より容易にデータベースを活用することが可能になる。

Amazon Aurora DSQLとAmazon DynamoDB global tablesでマルチリージョンの強い整合性モデルをサポート

Amazon Q Developer向けに、.Netやメインフレームをクラウドの現代的なアプリケーションへの移行を促すツールを提供

 最後にガーマン氏は、AWSがSaaSの生成AIサービスとして提供している「Amazon Q」の拡張に関して説明した。Amazon Qは昨年の「re:Invent 2023」で発表された新しいサービスで、大きく言うと開発者向けの「Amazon Q Developer」、ビジネスパーソン向けの「Amazon Q Business」の2つが用意されており、今回はAmazon Q Developer向けの機能拡張が発表されている。

 具体的には「.Netアプリケーションのクロスプラットフォーム化」、「メインフレームのモダナイゼーション」、「VMware環境の変換」などが発表されている。例えば、.Netアプリケーションのクロスプラットフォーム化では、Windows OS環境で利用されている.Netベースのアプリケーションを、Linuxなどのほかのプラットフォームへ移植する作業を高速化する。メインフレームのモダナイゼーションやVMware環境の変換などもそうのだが、このAmazon Q Developerのツールが行うのはコードの自動変換ではなく、例えばどのプログラムとどのプログラムが依存関係にあるのかなどをAIが分析し、その工程を短縮するのが目的になる。これまでは、そうした分析に数カ月から数年単位で時間がかかっていたものを、数週間などに縮めるのがこれらのツールのターゲットになる。

.Netアプリケーションのクロスプラットフォーム化をAIが支援

 なお、それぞれのサービス提供時期(一般提供開始かプレビューか)や、どのリージョンがターゲットかは、以下の表を参照していただきたい。

表1-1 今回発表されたAWSのモデル、ハードウェア、サービスなどの提供状況(AWS提供の資料より筆者まとめ)
表1-2 今回発表されたAWSのモデル、ハードウェア、サービスなどの提供リージョン(AWS提供の資料より筆者まとめ)