ニュース

Google Cloudは最高のインフラ――、マルチクラウドや相互接続性の確保により顧客のAI開発を加速する

Google Cloud Next 2025基調講演レポート 日本ではKDDIがGeminiの採用を明らかに

 Googleのクラウド事業部門Google Cloudの年次イベント「Google Cloud Next 2025」が、4月9日~4月11日(現地時間)の3日間にわたって、米国 ネバダ州ラスベガスのマンダレーベイ(Mandalay Bay)・コンベンションセンターにおいて開催されている。初日となる4月9日の午前には、Google CEO スンダー・ピチャイ氏、Google Cloud CEO トーマス・クリアン氏などのGoogle/Google Cloudの幹部が登壇して基調講演が行われた。

Google Cloud CEO トーマス・クリアン氏

 この中でGoogle Cloudは、AI向けの新しいハードウェア、AIモデル、AIソリューション、そしてAIエージェントなどに関して新しい製品やサービスなどを多数紹介し、顧客がこれまで以上に迅速にAIの開発できる環境の提供を約束した。

 またKDDIは、東京で行われたKDDI株式会社 代表取締役CEO 松田浩路氏の会見の中で、同社が大阪府堺市に開設する予定のデータセンター上でGeminiを採用する開発意向表明を行った。

AI開発への投資を加速するGoogle、ハード、ソフトどちらの開発も加速しているとピチャイCEO

 今回の基調講演の中で、GoogleはAIを演算するコンピューティング基盤、AIモデル、Vertex AI、AIエージェントといった、大きく4つの話題に関して説明を行った。

 基調講演の冒頭に登壇したのは、Google Cloud CEO トーマス・クリアン氏。クリアン氏は「ちょうど一年前に当地ラスベガスで開催した昨年のNextにおいて、AIの未来に関して話あった。そこからGoogle Cloudはさらに進化しており、世界中でリージョンはスウェーデン、メキシコ、南アフリカなどを含む42のリージョンに拡大している。また、Gemini 2.5、Imagen 3など最新のファウンデーションモデルの提供を開始している。さらに今回は500を超える顧客のAIを活用したビジネスイノベーションを紹介していきたい」と述べ、今回のGoogle Cloud Nextも引き続きAIフォーカスの内容になると説明した。

Google Cloudは42リージョン増加
Geminiは400万以上の開発者の利用されている
Vertex AIの利用者も20倍に

 そのクリアン氏の冒頭のあいさつの後に登壇したのがGoogle CEO スンダー・ピチャイ氏。ピチャイ氏は、主に今回の発表概要などに関しての説明を行った。

Google CEO スンダー・ピチャイ氏

 「GoogleではAIの可能性は非常に大きくと考えており、長い間AIの開発に投資を行ってきた。例えば、2025年には750億ドル規模の投資をAIの研究開発に投じる計画だ。そうした研究の成果として皆さんに提供しているがGeminiである。本日はそうしたAIの開発環境を強化する発表を行いたい。それがCloud WANと呼ばれるGoogleのプライベートネットワークを強化するものだ」と述べ、Googleが今後もAIの開発に多大な投資を行っていくことと、それと同時にその開発を支えるインフラへの投資も進め、GoogleがCloud WANと呼んでいる地球規模のプライベートネットワークを構築し、顧客が性能やネットワークにかかるコストを最適化しながらAIを利用できる環境を整えることを明らかにした。

 GoogleはCloud WANで、リージョンとリージョン、さらには競合となるクラウドサービスプロバイダー(CSP)とのネットワーク、さらには企業のオンプレミス環境などを、Googleのプライベートネットワークで接続し、固定的なコストで利用することを実現可能にする。

 ピチャイ氏は「Cloud WANにより性能は40%向上し、コストは40%削減できる」と述べ、Google Cloudの顧客はネットワークのコストを最適化しながら、マルチリージョンで、マルチクラウドの環境でAIの開発を行うことを可能にすると説明した。

Alphabet(Googleの持ち株会社)の研究開発投資は750億ドルに
Cloud WAN
従来のプライベートネットワークと比較して40%性能向上

 また、ピチャイ氏は同日にGoogle Cloudが発表した第7世代TPUとなる「Ironwood」、量子コンピューティング向けのカスタムチップになるWillowなどの半導体ソリューションを紹介。

 さらにGeminiやImagen 3、Veo 2などのGoogle Cloudが提供する新しいファウンデーションモデルを活用した天気予報モデルなどにより、AIの新しい時代を切り拓くと紹介した。そして、詰めかけた顧客などに対して「こうした新しいAIソリューションを活用して、新しい画期的なAIアプリケーションを作ってほしい」と呼びかけた。

基調講演で公開されたIronwood
Willow
展示会場に展示されていたIronwood、2つのメインチップ、IOチップ、HBMの複数のチップから構成されているチップレット構造であるように見える

新しいTPUと新しいGPUのVMが発表され、電力効率重視か、性能重視かで選択できる環境を構築

 引き続きクリアン氏が登壇し、そうしたピチャイ氏が紹介した新しいAIソリューションの具体的な内容などを説明した。最初に触れられたのは、同社が「AI Hypercomputer」と呼んでいるAIを演算するコンピューティング基盤で、それを実現するために、TPUやGPUなどに関しての説明が行われた。

 TPUに関してはすでに、同日朝の報道発表で公開されている通りで、TPU v4/TPU v5p比でそれぞれ約16.78倍、約10倍という性能を発揮する。詳しくは以下の記事に詳しいのでご参照いただきたい。今回の基調講演の中でGoogleはその実物を公開した。

 またGPUに関しては、3月に行われたNVIDIA GTCでA4X、A4 VMという2つのVMがプレビュー提供および近日提供開始がアナウンスされている。A4XはNVIDIA GB200 NVL72がベースで、A4はNVIDIA HGX B200が利用されており、前者はArmプロセッサと、後者はx86プロセッサとの組み合わせで利用できることになる。また、A4 VMに利用されるサーバーラックは、展示会場におけるGoogleとNVIDIAブースに展示されていた。

A4XとA4の提供
NVIDIA HGX B200がベースになっているA4のVMが実行されるラック

 Google Cloudとしては、性能に優位性があるNVIDIAのBlackwellと、電力効率に優れているTPUを提供することで、顧客のニーズによってどちらかを選択してもらう戦略となる。

 なお今回、Googleは、NVIDIAが次世代製品としてロードマップで紹介している「Vera Rubin」(次世代ArmプロセッサとなるVeraと、Blackwellの後継GPUとなるRubinの2つを1ボードに載せたもの、GB200シリーズの後継製品)に関しても、ほかのCSPに先駆けて投入を行うと説明した。

 現時点ではロードマップ上にあるだけで、影も形もないVera Rubinの採用をいち早く表明するあたり、新しいGPUを他社に先駆けて導入することがCSPにとって重要になっていることをうかがわせている。

Vera Rubinの導入計画が明らかにされた、NVIDIAは26年以降に投入する計画

Gemini on Google Distributed Cloudを発表、KDDIは同社の堺データセンターでGeminiの採用意向を公表

 またGoogle Cloudは、顧客企業のオンプレミスやエッジ環境に、Google Cloudのハードウェアを置く形でサービスを提供する「Google Distributed Cloud」の提供を数年前から行っているが、今回のイベントで、そのGoogle Distributed CloudでGeminiが使えるようになったと明らかにした(Gemini on Google Distributed Cloud)。

Gemini on Google Distributed Cloudが発表

 その紹介時には、NVIDIAのジェンスン・フアンCEOがビデオで登場し、NVIDIAのGPUでサポートされているConfidential Computingの機能などが利用できるようになるとアピールした。

NVIDIA ジェンスン・フアンCEO

 なお、この基調講演後に行われた、KDDIの新社長(KDDI株式会社 代表取締役CEO 松田浩路氏)の日本における会見では、KDDIが大阪府堺市に新たに開設するデータセンターにおいて、KDDIとGoogle Cloudが協業し、両社が協力してGeminiが稼働させるという開発意向表明が行われた。

東京で行われたKDDIの松田新社長の会見で、堺に置かれるAIデータセンター上でGeminiが動作するという開発意向表明が行われた

 現時点ではGoogleからの正式なアナウンスはされていないが、Google Cloudの基調講演の中でソブリンクラウド事業の顧客リストにKDDIのロゴがあることが確認されており、ソブリン要件を満たすためには、サーバーなどを日本国内かつ顧客のデータセンターなどに置く必要があると考えられるため、Gemini on Google Distributed Cloudなどの仕組みを活用しているのだと予想できる。

 松田社長は、Google Cloud Nextの中で何らかの発表があると説明しており、追って両社から何らかのアナウンスがあるだろう。

KDDIのロゴがソブリンクラウドパートナーの中に

Geminiなどのファウンデーションモデルの拡充や、AIエージェントの開発ツールなどが発表される

 AIモデルに関しては、Gemini 2.5とImagen 3/Veo 2/Chirp 3/Lyriaという、Googleが自社サービス向けに提供しているファウンデーションモデルのアップデートが紹介された。

 Geminiは他社のLLMよりも高性能なLLMとしてリリースされたもので、このGoogle Cloud Nextの前に、最新バージョンとなるGemini 2.5が発表されており、Gemini 2.5 Proという最初の製品がすでに発表済みだ。

 今回のNextでは、Gemini 2.5 Flashというコストパフォーマンス重視版の提供が明らかにされた。また、Geminiと対話で会話が行えるLiveのAPI版となる「Live API」、あらかじめ設定しておいたコストなどのパラメーターから自動で最適なモデルを選択できる「Model Optimizer」なども合わせて発表されている。

Gemini 2.5 Flash

 画像生成のImagen、動画生成のVeo、音声認識Chirpなどはバージョンアップ版の提供が開始されたことが明らかにされ、今回新たに楽曲をプロンプトから生成するLyriaの提供が開始された。なおLyriaに関しては、プロンプトは英語ののみ対応とはなるが、国内からも本日より利用可能になるとGoogleは説明した。

Imagen 3/Veo 2/Chirp 3/Lyria

 また、サードパーティのモデルへのラインアップ拡充も引き続き行われており、今回の基調講演内で、MetaのLlama 4に対応したことも明らかにされている。

Llama 4への対応が明らかに

 Vertex AIおよびAIエージェントに関しては、同社が昨年の12月に発表した「Google Agentspace」に関する新しい発表が多数行われた。Google Agentspaceは、顧客企業が自社向けのAIエージェントを構築する際に利用できるツールで、ファウンデーションモデルなどを顧客が選択して、サードパーティのSaaSのデータなども参照しながら会話型AI(いわゆるチャットボットなどのこと)を構築することが可能になる。

Google Agentspace

 今回発表されたのはオープンソースのAIエージェント構築ツールとなる「Agent Development Kit」、エージェント同士がやりとりする時に業界標準となるような「Agent2Agent プロトコル」などで、いずれもオープンなツールや規格として提案されており、Google Cloudだけでなく、他社のサービスなどに対しても活用できるソリューションとなる。

Agent Development Kit
Agent2Agent プロトコル

 こうしたさまざまな発表やデモなどが行われた後、最後に登壇したクリアン氏は「Google Cloudでは、最高のインフラストラクチャ、主要なモデル、ツール、エージェントを備えた主要なエンタープライズ対応AIを実現するのに最適なプラットフォームを提供しており、オープンなマルチクラウドプラットフォームを標榜している。そして、相互運用性を構築してAI投資から価値を得るまでの時間を短縮することで、顧客のイノベーションを支援することを約束する」とまとめ、講演を終えた。