イベント

AWS、生成AIの“ファウンデーションモデル選択の自由”が顧客にあることを強調

~シヴァスブラマニアン副社長 基調講演レポート

AWS re:Invent 2023で講演する、AWS マシンラーニング担当副社長 スワミ・シヴァスブラマニアン氏

 パブリッククラウドサービスを提供するクラウドサービスプロバイダー(CSP)の米Amazon Web Services(AWS)は、11月27日~12月1日(米国時間、日本時間11月28日~12月2日)の5日間にわたり、年次イベント「AWS re:Invent 2023」(以下、re:Invent 2023)を、米国ネバダ州ラスベガス市内の会場で開催している。

 11月29日午前(米国時間、日本時間11月30日未明)には、同社 マシンラーニング担当副社長 スワミ・シヴァスブラマニアン氏によるAIに関する基調講演が行われた。ただしAIに関しては、新しい生成AI由来のAIアシスタントとなるAmazon Qの発表などは、11月28日に行われたアダム・セリプスキーCEOの基調講演などで明らかにされており、シヴァスブラマニアン氏の講演は、よりAIの具体的な話に特化した内容になった。

 この中でシヴァスブラマニアン氏は「AWSが顧客に提供している生成AIの開発環境となるAmazon BedrockではAWSが提供する最新のファウンデーションモデルだけでなく、Llama2やStable Diffusionといったサードパーティのファウンデーションモデルを選択することが可能だ」と述べ、AWSの生成AI環境ではどのモデルを利用するかの「選択の自由」が顧客にあると強調した。

AWS re:Invent 2023で講演するAWS マシンラーニング担当副社長 スワミ・シヴァスブラマニアン氏

生成AIのファウンデーションモデルの選択には「選択の自由」が必要だとAWS

 AWS マシンラーニング担当副社長 スワミ・シヴァスブラマニアン氏は、19世紀の科学者で世界初のコンピュータ・プログラマーとしてその名前が知られているエイダ・ラブレースの話から講演の話を開始した。

 シヴァスブラマニアン氏はエイダが「The Analytical Engine…can follow analysis…but “its” province is to assist us in making available what we are already acquainted with.」(解析エンジンとは確かに解析ができるが、既にわれわれがよく知っていることを再認識させてくることがその本質だ)という言葉を紹介し、コンピュータは人間が苦手な分析や面倒な手作業などを肩代わりしてくれるようになると予測したことを紹介し、現在、それが生成AIで現実になりつつあるのだと述べた。

エイダ・ラブレース
「The Analytical Engine…can follow analysis…but "its" province is to assist us in making available what we are already acquainted with.」(解析エンジンとは確かに解析ができるが、既にわれわれがよく知っていることを再認識させてくることがその本質だ)

 その上で、生成AIは、GPUや学習/推論アクセラレータのような演算装置のレイヤー、AWSが提供しているBedrockのような開発環境のレイヤー、そしてアプリケーションのレイヤーという3つのレイヤーにより実現されていると述べ、2番目の開発環境のレイヤーとして、AWSが提供しているAmazon Bedrockを紹介した。

生成AIアプリケーションを構築するための3つのレイヤー

 Amazon Bedrockは、今年に入ってAWSが投入した生成AIの開発環境になる。生成AIを開発するには、どのファウンデーションモデルを採用するかが重要になる。その代表例は言うまでもなく、OpenAIが開発しているChatGPTで、OpenAIはMicrosoftとがっちりパートナーシップを組んで、MicrosoftやOpenAI自身からさまざまなサービスとして提供されている。

 確かにChatGPTは優れたファウンデーションモデルではあるのだが、では、それしか選択肢がないのかといえばそうではない。例えばMetaのLlama 2、AI21Labsが提供するJurassic、Anthropicが提供するClaude、stability.aiが提供するStable Diffusionなど、現時点ではさまざまなファンデーションモデルが提供されており、それぞれ得意不得意がある状況だ。従って、生成AIのサービスを提供しようというエンタープライズにとっては、決してChatGPT一択という訳ではなく、ほかのファウンデーションモデルを選択したいというニーズが確実に存在する。

 シヴァスブラマニアン氏は「われわれもAmazon TITANという自前のファウンデーションモデルを持っており、それもBedrockと共に提供している。しかし、どのファウンデーションモデルを使うかは目的に応じて選択すべきであり、われわれは顧客に選択の自由を提供する」と述べ、AWSの基本戦略として、同社の生成AI開発環境となるAmazon Bedrockではどのモデルを選ぶか選択の自由があると強調した。

AWSの生成AI開発環境でサポートされるファウンデーションモデル
AWS自身のファウンデーションモデルになるTITAN

 今回AWSでは、「Anthropic Claude 2.1」、「Meta Llama 2 70B」、「Stable Diffusion XL 1.0」といったサードパーティのモデルを新たにGA(一般利用開始)としたほか、同社自身のAmazon TITANの「Titan Image Generator」(より正確な画像を生成できる画像生成モデル)がプレビュー提供、マルチモーダルな検索とレコメンデーションを提供可能にする「Titan Multimodal Embeddings」、「Titan Text Express」、「Titan Text Lite」がGA(一般提供開始)となったことを明らかにした。

Titan Image Generator

OTAのBooking.com、日本のトヨタ自動車などがAWSの生成AIの仕組みを利用して一般消費者に生成AIサービスを提供

 シヴァスブラマニアン氏の基調講演では、いくつかの顧客事例が紹介された。例えば、OTA(オンライン・トラベル・エージェント)のBooking.comや日本のトヨタ自動車はその代表例と言える。

 Booking.comは、AWSが提供しているAI開発環境となるSageMaker、生成AI開発環境となるBedrockを活用しており、それらを利用して自社の生成AIアプリケーションを提供しているという。具体的にはLlama 2のファウンデーションモデルを利用して作られたトリッププランナーでは、対話型のチャットボットを利用しての旅行の予約が可能だという。

Booking.comの講演
旅行の予約ができるチャットボット

 トヨタ自動車ではAWSクラウドを、緊急通報のコネクテッドサービスで利用しており、事故が発生した場合にはAWSクラウドを経由してコールセンターに通知が送られ、コールセンターから車両に電話などで連絡される仕組みになっていることがアピールされた。またBedrockを利用して、IVIのマニュアルが音声で答えるようになっていることなどがビデオで説明された。

トヨタ自動車はビデオで登場

大規模な分散トレーニングが可能なSageMaker HyperPodの一般提供開始などが発表される

 このほかにも、AWSはいくつかの新しい発表を行った。「SageMaker HyperPod」では大規模な分散トレーニング用の専用インフラが提供され、ファウンデーションモデルの学習時間が最大40%短縮される。SageMaker HyperPodは既に一般提供が開始されており、東京リージョンでも利用することができる。

SageMaker HyperPod

 また、いくつかのベクトル検索機能が利用できるようになったことが明らかにされた。ベクトル検索とは、テキスト、画像、音声などを数字で表現するベクトル表現という手法を利用して、それにより検索することを可能にする。それにより、類似の画像や音声などを見つけることが可能になり、同じような画像や音声などを検索することが可能になる。

 そのための新機能として「Vector engine for OpenSearch Serverless」、「Amazon DocumentDBとAmazon DynamoDBのベクトル検索への対応」、「Vector search for Amazon MemoryDB for Redis」などがGAないしはプレビュー提供の開始が発表された。

 これ以外では、「Amazon Neptune Analytics」、「Amazon OpenSearch Service zero-ETL integration with Amazon S3」、「AWS Clean Rooms ML」、「Amazon Q generative SQL in Amazon Redshift」、「Amazon Q data integration in AWS Glue」、「Model evaluation on Amazon Bedrock」などが発表されている。