イベント

生成AIはアプリをデプロイする段階に入ったとGoogle Cloud メルセデス・ベンツなど多くの顧客事例を紹介

 Googleのクラウド部門「Google Cloud」は、4月9日~4月11日(現地時間)の3日間にわたり、米国ネバダ州ラスベガス市において、年次イベント「Google Cloud Next '24」を開催している。4月9日午前(日本時間4月10日未明)には、Google CEO ズンダー・ピチャイ氏、Google Cloud CEO トーマス・クリアン氏などの同社幹部による基調講演が行われ、同社の新しいArm CPU「Google Axion プロセッサ」などの新製品などが多数発表された。

Google Cloudが発表したGoogle Axion プロセッサを手に持つ、Google Cloud CEO トーマス・クリアン氏

 この講演の中でGoogle CEOピチャイ氏はGoogle Cloudはメルセデス・ベンツ、ゴールドマン・サックス、UberといったGoogle Cloudを活用している顧客事例を紹介した上で、「生成AIは構想語る段階ではなく、実際にその上で動くエージェントの話をする段階に入っている」と述べ、生成AIを活用したエージェント(アプリケーションのこと)が既に顧客のITとして動き始めており、それによりデジタル変革を進めている顧客が多くいると強調した。

メルセデス・ベンツ、ゴールドマン・サックスなど多くの顧客事例が紹介されたGoogle Cloud Next

 今回のGoogle Cloud Next'24 基調講演の特徴を一言でいうと、これまでよりも顧客事例が多く紹介された講演だったと言える。こうしたCSP(クラウドサービスプロバイダー)の年次イベントでの講演は、新しい製品が続々と発表され、1~2件程度顧客事例が紹介されるということが通例なのだが、今回は関係者がビデオ出演した顧客企業だけで、ゴールドマン・サックス、メルセデス・ベンツ、Uber、Walmart、Wayfair、Palo Alt Networksと6社に上り、プレゼンテーションの中で社名が紹介された企業になると数が数え切れないほど多かった(数十社の規模になる)。

 基調講演の冒頭にビデオで登壇したGoogle CEO ズンダー・ピチャイ氏は「Google Cloud の AI は着実に進化している。AIインフラストラクチャーへの投資やGeminiモデルの開発により、多くの企業のデジタル変革に貢献している。実際、Google CloudのAIは生成AIスタートアップや多くの有名企業で採用されており、AIの可能性を広げている。今回のGoogle Cloud Next'24では、マルチモーダルなGemini 1.5 Proのプレビュー提供を明らかにし、100万トークンという大きなサイズの情報を処理できるAIプラットフォームを提供し、さまざまな処理に使えることを説明していく。これからもGoogleはAIのイノベーションや研究に投資し、その成果をお客さまに提供することで、AIでお客さまが成長する機会を提供していく」と述べ、生成AIが「あれもできる、これもできる」と説明するような段階から、顧客が実際にアプリケーションに生成AIを実装し、彼らの顧客のユーザー体験を向上させたり、生産性を上げたりという用途に使い始めているのだと強調した。

Google CEO ズンダー・ピチャイ氏はビデオで参加

 今回Google Cloudが(ビデオ出演で)ステージで紹介したのは、ゴールドマン・サックスのデビッド・ソロモンCEO、メルセデス・ベンツのオラ・ケレニウスCEO、Uberのダラ・ホスロウシャヒCEO、Walmart のスレシュ・クマル上席副社長、Wayfair フローナ・タンCTO、Palo Alt Networksのニケシュ・アローラCEOといった面々で、いずれもその業界を代表する企業でその多くが、Googleが「エージェント(Agent)」と呼んでいるGoogle Cloud上で動作する生成AIアプリを利活用している。

 例えば自動車メーカーメルセデス・ベンツのケレニウスCEOは「車内におけるデジタル体験の改良に、Google CloudのAIソリューションを利活用している。昨年はGoogle Mapsとのパートナーシップを発表し、300万人を超える顧客がメルセデスの車で、Google Placesを活用している。また、購入時のデジタル体験、コールセンターでのカスタマーサービスの向上、マーケティング活動の最適化などにGoogle CloudのAIを活用している。例えばセールスアシスタント機能では、顧客がお気に入りの試乗車をオンラインで見つけるなど、メルセデスとシームレスに対話できるような仕組みを提供している」。

 「さらに、自動運転の開発でもGoogleと提携している。われわれが開発した条件付き自動運転(レベル3)においてカリフォルニア州とドイツで最初に認定をとったのがメルセデス・ベンツで今後そうした製品開発にも、Google Cloudをバックボーンとして利用していく。今後もGoogle Cloudと協力して、よりインテリジェントな車両を、より優れたデジタル体験でお客さまにお届けしたい」と述べ、メルセデス・ベンツが顧客ユーザー体験の向上にGoogle CloudのAIエージェントを活用しているほか、自動運転車両の開発でもGoogle Cloudを活用していると説明した。

メルセデス・ベンツ オラ・ケレニウスCEO
ゴールドマン・サックスのデビッド・ソロモンCEO
Uberのダラ・ホスロウシャヒCEO

Google自身のエージェント「Gemini for Google Workspace」などにも大きなアップデートが入る

 Google Cloud CEOのトーマス・クリアン氏は、そうしたGoogle CloudのAIアーキテクチャを3つの層に分類した。1つはユーザーが活用する時の「エージェント」と呼ばれるクラウド環境におけるAIアプリケーション。二つめが、それを支える「ソフトウェアレイヤー」で、同社がVertex AIと呼んでいる開発環境、JAX、Tensor FlowのようなAIフレームワークやGeminiのようなファンデーションモデルを含み、エージェントが確実に動作する環境を提供する。そして最後にそれらのエージェントや開発環境が学習や推論を行う時に、確実な演算を行う「性能に特化したハードウェア」の3つになる。クリアン氏は今回の基調講演でその3つのレイヤーに関してそれぞれに説明した。

Google Cloud CEOのトーマス・クリアン氏
Google CloudのAIアーキテクチャ

 エージェント(クラウドでの生成AIアプリケーション)に関しては、既に紹介した顧客事例により、さまざまなエージェントが実行されていることを紹介した。それと同時に、Google自身がパッケージとして提供しているエージェントに関しても紹介している。Google自身が提供するエージェントは、本年の1月にすべて「Gemini」ブランドに統一されており、Google Workspace向けの「Gemini for Google Workspace」、Google Cloud向けの「Gemini for Google Cloud」などのサブスクリプションベースのSaaSとして提供されている。

Gemini for Google Workspace

 今回の基調講演の中でGoogle CloudはGoogle Workspace、Gemini for Google Workspaceに関していくつかのアップデートを行っている。その最大の発表は「Google Vids」と呼ばれる新しいGoogle Workspaceのアプリケーションだ。このGoogle Vidsは、Gmail、Sheet、SlidesといったGoogle Workspaceの主要アプリケーションと横並びに位置づけられている新しいアプリケーションで、Google Workspaceユーザーには久々の新アプリケーションとなる。

Google Vids

 Google Vidsの狙いは明白だ。現代のデジタルマーケティング環境では、SNS(TikTok、Instagramなど)に投稿される短い動画(ショートムービー)が特に若い世代にアクセスする時には重要になっている。これまでエンタープライズのデジタル環境ではそうしたショートムービーを編集することが難しかったため、大抵の現場では外部のクリエイターに外注ということになっているだろう。

 しかし、今回Google Workspaceの新しいアプリケーションとなったGoogle Vidsは、プロンプトにどのようなコンセプトの動画を作りたいかをいれると、生成AIが、自分の手持ちのコンテンツやストック動画などからきちんと権利処理されている動画を選んで、編集してくれる。さらに自分の音声をそれにかぶせることもできるし、生成AIがストックしている音声にテキストをしゃべらせることなどが可能になっている。このGoogle Vidsは、ビジネス向けとエンタープライズ向けのGoogle Workspaceアカウントを持っているユーザーに6月から順次展開されるが、最初は英語のみの提供となり、日本語など別の言語への対応は順次となる。

プロンプトに希望する編集内容などをいれると、動画が編集されていく。

 また、ほかにもMeetの要約や翻訳機能となる「AI Meeting & Messaging add-on」、データの自動分類と保護を実現する「AI Security add-on」も発表されており、月額10ドルでオプションとして提供されるが、AI Security add-onに関しては、既にエンタープライズ版の契約をしているユーザーにはプランに含まれており、オプションとして提供されるのはビジネス版のみとなる。

AI Meeting & Messaging add-on
AI Security add-on

 なお、Gemini for Google Workspaceの日本語化に関しては、昨年のGoogle Cloud Next '23の日本版で説明された「2024年中に向けて順次作業中」という状況には変化がなく、ターゲットの24年中に日本語化完了に向けて鋭意作業中で、完了したものから順次投入されていくという状況だと、Google Cloudの日本法人から説明があった。こうした作業が行われているのは日本語化の品質にこだわっているためで、それがしっかり担保できてローカライズされてから投入したいということだった。

ソフトウェア開発向けには、100万トークンやマルチモーダル対応Gemini 1.5 Proのパブリックプレビューが開始とアナウンス

 そうしたGoogle Cloudが提供する顧客が実装するエージェント、さらにはGoogleがSaaSとして提供しているパッケージ化されたエージェントを支えるのが、ソフトウェアレイヤーだ。Google Cloudは生成AI、AIのエージェントを開発する開発環境として「Vertex AI」を提供しており、今回のGoogle Cloud Next '24では、そのアップデートに関しても説明が行われた。

 中でも強調されたのは、昨年の12月に発表されたファンデーションモデル「Geminiモデル」の最新版となるGemini 1.5モデルについてだ。Gemini 1.5モデルは、Geminiはトークンと呼ばれる生成AIがテキストを処理する時に活用する基本的な単位で、その数が大きければ大きいほど、一度に多くのテキストを処理することが可能になっている。

 Gemini 1.5ではこのトークン数が大幅に増えており、初代GeminiモデルのGemini Proでは3万2000トークンだったのが、Gemini 1.5 Proでは最大100万トークンに拡大されている。また、マルチモーダル(映像や音などを認知する能力のこと)への対応も進んでおり、映像や画像を取り扱っての処理が容易になっている。

Gemini 1.5 Proは100万トークンに対応

 今回Google CloudはこのGemini 1.5 Proモデルを、限定プレビューからパブリックプレビューへとステータスを変更している。つまり、従来はGoogle Cloudの限られた顧客しか利用できなかったのに対して、今後は顧客が利用を申し込むことでプレビューとして利用することが可能になる。なお、既にGoogle CloudはこのGemini 1.5 Proを自社のサービスにも適用しており、前出のGoogle VidsはこのGemini 1.5 Proベースであることが明らかにされている。

Gemini 1.5 Proがパブリックプレビューとなった

 さらにGoogleは画像生成モデルの「Imagen」をアップデートし「Imagen 2」として提供開始することも明らかにしている。Imagenは指示をプロンプトにいれて画像を生成するためのモデルだが、今回テキストからライブイメージ(短い動画)を作成する機能、インペインティング(囲った範囲を違和感ないように消す機能)/アウトペインティング(画像のない部分を生成すること)などが追加されているほか、生成AIが作成した画像であることを示すために、Google Deepmindが開発して提供している、SynthIDと呼ばれる人間の目には見えないウオーターマークを追加する機能に対応している。

Imagen 2
テキストからライブイメージに変換
デジタルウオーターマーク
新しい編集機能

 また、Googleが「Model Garden」と呼んでいる、オープンソースのモデルをVertex AIで活用できる機能において、サードパーティーモデルとの提携が明らかにされた。わかりやすく言うと、Hugging Faceのモデルが、Vertex AIのツールからダイレクトに利活用することが可能になり、Hugging Faceに上がっているモデルをそのまま流用して生成AIアプリを開発することが可能になる。

Model GardenがHugging Faceなどと連携

 また、Agent Builderと呼ばれるエージェントの開発を容易にする開発ツールのアップデートも明らかにされている。Google Driveへのコネクター(接続ツール)が一般提供開始されたり、メディアコンテンツの検索をより容易に行うVertex AI Searchがパブリックプレビューになったりと、さまざまな機能が追加され、ノーコード/ローコードでAIエージェントを開発したり、プログラミングができる人は新機能を利用して、よりカスタマイズされたエージェントをプログラミングすることが可能になる。

NVIDIA GPUや第5世代TPUの一般提供開始が明らかにされる、Google Cloud初のArm CPU「Axion」が発表

 そうしたエージェントやソフトウェア環境が動作するのはGoogleが「AI Hypercomputer」と呼んでいる、ハードウェアインフラとなる。今回Googleは、AI向けの半導体として同社が提供している2種類のソリューション(GPU、TPU)のそれぞれで新製品の一般提供開始を明らかにした。

Google Cloudが一般提供を開始したTPU v5p

 GPUに関しては、既に提供してきたA3(NVIDIA H100 Tensor Core GPUベースのインスタンス)の拡張版となる、A3 Megaを来月より提供開始する計画だと明らかにした。A3 Megaは、A3に比べてGPUとGPUを接続するネットワークの帯域を2倍(1.6Tbps)にしたもので、それによりシステム全体の性能が大きく向上する。その2倍の性能向上には、GPUDirect TCPXと呼ばれるGoogleとNVIDIAが共同開発したソリューションが使われており、それにより1.6Tbpsという帯域幅が実現される。

A3 Mega
NVIDIAのBlackwellは来年初頭にサービスインの予定

 また、Googleは先日NVIDIAが発表した次世代AI向けGPU「Blackwell」の導入について、2025年の初めに行う計画だとロードマップを明らかにした。

 TPUに関しては、昨年のGoogle Cloud Next '23で発表したTPU v5e(電力効率に特化したTPU v5)、および昨年の12月に追加発表したTPU v5p(性能に特化したTPU v5)のいずれも一般提供を開始したことを明らかにした。TPU v5pはGPT3 175Bでの学習時間がTPU v4に比べて2.8倍になっており、1万を超えるチップにより構成されている巨大なノードに伸縮することが容易になる。

 また、Google Cloudは汎用コンピューティング向けのCPUのインスタンスや、新しいArm CPUを発表している。具体的には第5世代Xeon SP(Emerald Rapids)ベースのC4とN4(C4が汎用向け、N4はより小さな単位などスケールが容易なバージョン)、さらにはSAP HANAのようなインラインメモリデータベースに特化して最大32TBのメモリを実装可能なX4なども発表されており、新しい世代のCPUを採用することで、汎用コンピューティングの処理能力向上を実現する。

汎用コンピューティング向けのインスタンス、今回C4、N4、X4などが発表された

 さらに今回ArmアーキテクチャのCPUとなる「Google Axion プロセッサ」を発表している。AxionはArmが提供するNeoverse V2ベースのサーバーに特化したCPUで、CPUコア数などの具体的なスペックは現時点では不明だが、Googleは市場にあるArm CPUに比べて30%高速で、現行のx86プロセッサに比較して50%高速で、60%電力効率が高いと説明している。

 今回の基調講演の中でGoogle CloudのクリアンCEOは、その実チップを公開して注目を集めた。それを見る限りは、Axionは巨大なシングルダイで構成されており、メモリなどはパッケージ上には封入されていないように見える。AWSのGravitonシリーズではメモリコントローラが外付けになってチップレットの形で搭載されているのとは対照的なデザインだ。いずれにせよ、今回Google CloudはAxionを発表したものの、その詳細はほとんど説明していない。GoogleはTPUもそうだが、実際にGAになる時に詳細を説明することが多く、Axionに関してもそうだと考えられるので、次の発表を待ちたいところだ。

Google Axionプロセッサ