イベント

Google Cloud、Next '23で生成AIを加速するソリューションや、それを支えるハードウェア「TPU v5e」などを発表

 米Googleが運営するCSP(クラウドサービスプロバイダー)部門となるGoogle Cloudは、年次イベント「Next '23」を8月29日午前(米国時間、日本時間8月30日午前)より、米国カリフォルニア州サンフランシスコ市のモスコーン・センターにおいて開催している。Next '23は、2019年以来4年ぶりに対面として開催されるイベントになり、Google Cloudの各種ソリューション、特に多くのエンタープライズなどから注目が集まっている生成AIサービスなどの話題を中心に多くの発表が行われる予定だ。

 今回Google CloudはNext '23において、同社のAI/MLのマネージドサービス「Vertex AI」の生成AI機能拡張、同社の生産性向上ツール「Workspace」向け生成AIサービス「Duet AI」の新機能などを多数発表したほか、そうしたAI/MLの学習や推論の処理性能を加速するインフラとなるTPU(Tensor Processing Unit)の最新版「TPU v5e」や、NVIDIA H100を採用した「A3 supercomputer」のGA(一般提供開始)を発表した。

Google Cloud Next '23が開催されているサンフランシスコのモスコーン・センター

第5世代TPUとなるTPU v5eを採用した「Cloud TPU v5e」を発表、NVIDIA H100なA3のGAを発表

 今回のNext '23で、Google Cloudは、生成AIを含むAIの環境構築に必要なインフラ(AWSでいうところのECのようなクラウド上で提供されるハードウェア)の新サービスの発表を行った。

 Google Cloudが発表したのは、新しい第5世代のTPU(Tensor Processing Unit)を採用している「Cloud TPU v5e」、およびNVIDIAのH100 GPUを採用した「A3 supercomputer」がGA(General Available、一般提供開始)のステータスに変更されたことなど。また、GKE Enterprise、Cross Cloud Network、Google Distributed Cloudに関しても発表が行われている。

 TPUは、Googleがマシンラーニング(ML、機械学習)/ディープラーニング(DL、深層学習)に特化して設計、提供しているマイクロプロセッサで、CPUやGPUなどの汎用プロセッサに比べてより効率よくML/DLの演算を行えることが最大の特徴だ。2016年のGoogle I/Oで発表され、2017年からGoogle Cloudのインフラ「Cloud TPU」として提供開始された第1世代のTPU(TPU v1)は、通常FP32やFP16といった精度のデータを利用して演算していたML/DLの演算を、8ビット(INT8)などに意図的に精度を落として演算することでML/DLにおける処理能力を向上させた形になる。

 また、ML/DLに特化した演算器のみを内蔵することで、CPUやGPUなどが備えるキャッシュ、分岐予測、アウトオブオーダー実行などの複雑な演算器を排除したことにより、CPUやGPUに比べると少ない消費電力でML/DLに特化した演算が行えることも特徴になる。

 2017年に第2世代となるTPU v2、2018年には第3世代となるTPU v3が発表され、昨年には第4世代となるTPU v4が発表され、現在インフラストラクチャーとして「Cloud TPU v4」などがサービスと提供開始されている。

TPU v3(2018年のNextで撮影)

 Googleは第3世代のTPU v3以降、より大規模にパラレルに処理できるようにスケーラビリティの強化に注力しており、TPU v5eでは400TB/秒のインターコネクトを採用することで最大256チップ構成まで可能になったことで、より大規模な学習や推論を行えるようになっている。256チップ構成の場合、INT8での演算性能は100ペタOpsに達するとGoogleは説明している。

 なお、今回GoogleはCloud TPU v5eという名称と、Cloud TPU v4と比較して学習における価格辺りの性能が2倍に、推論の価格辺りの性能は2.5倍になると公表されただけで、TPU v5e単体がどのようなマイクロアーキテクチャ(マイクロプロセッサのハードウェア上の仕様のこと)を採用しているかなどは明らかになっていない。

 A3 supercomputerは、NVIDIAが学習や推論向けに提供しているGPU「NVIDIA H100 GPU」(開発コードネーム:Hopper)を8基と、Intelの200G IPU(Infrastructure Processing Unit)をGoogleが独自にカスタマイズしたネットワークから構成されており、従来のA2に比べて10倍のネットワーク帯域幅を実現している。A3 supercomputerは既に5月に発表はされていたが、これまでは限定的な提供にとどまっており、来月(9月)より一般提供が開始される。従来のNVIDIA A100 GPUを利用しているA2に比較して、学習、推論時の性能が3倍に強化される。

 このほか、GKE Enterpriseはマルチクラスターのスケーリングアップを行う仕組みで、大規模なマシンラーニング向けなどに提供される。スケールアップや、オーケストレーションを自動で行い、Cloud TPUと組み合わせてより大規模にMLの演算を行うことが可能になる。Cross Cloud Networkは複数のクラウドをまたがってサービスを利用するときに、MLベースのAIによるゼロトラストセキュリティを実現するソリューション。Google Distributed Cloudは、Google Cloudのサービスをエッジや顧客のデータセンターでも利用できるようにするサービスで、今回AIサービスをエッジで利用できるようになる。

AI/MLのマネージドサービス「Vertex AI」関連ではLLM「PaLM 2」の機能拡張などが発表される。

 Google Cloudが提供しているAI/MLのマネージドサービスが「Vertex AI」(バーテックス・エーアイ)だ。Vertex AIでは、さまざまなAI/ML向けのサービスなどが用意されており、特に今年に入ってからGoogle Cloudは、Vertex AIに生成AIの機能を矢継ぎ早に追加している。3月に生成AI機能をVertex AIに実装することを明らかにして以降、LLM(大規模言語モデル)の「PaLM 2」を発表し、その後にVertex AIでの生成AI機能のGA(一般提供開始)を行うなど、着実に生成AI関連の拡充を行ってきた。

 今回のNext '23では、さらに生成AI関連の新しい発表が行われている。

 LLMのPaLM 2関連では、32Kコンテクストウインドウへの対応が行われ、エンタープライズが論文のような複雑な文章を、言語認識を利用して処理することが容易になっている。また、既に発表されていたが、日本語を含む32の新しい言語に対応し、英語以外の言語を利用しているアプリケーションの構築も容易に行えるようになる。

 加えて、PaLM 2を利用したコード生成機能「Codey」を利用するユーザーに、チューニングのためのツールが提供される。それによりコーディングのクオリティーが25%ほど向上する。

 さらに、Metaが提供するLlama 2、Technology Innovative InstituteのFalcon LLM、AnthropicのClaude 2などのオープンソースで提供されるLLMのモデルにVertex AIが対応することが明らかにされた。これにより、GoogleのPaLM 2だけでなく、ほかのベンダーが提供するようなLLMのモデルをVertex AIの顧客が活用することが容易になる。

 このほか、Vertex AIの拡張機能(Extensions)の提供開始も発表された。これはAPI経由で、顧客自身が構築した拡張機能、Googleが提供するファーストパーティ拡張機能、あるいは外部のベンダーが提供するサードパーティ拡張機能などを利用できるようになる仕組みで、エンタープライズがVertex AIを利用して生成AIなどのAI機能を実装する場合に、より容易に機能拡張を行えるようになる。

Google Meetの文字起こしや翻訳機能、Google ChatのチャットボットなどがDuet AIにより実現される

 5月に開催されたGoogle I/Oで発表されたのが「Duet AI」と呼ばれる生成AIを利用したコ・パイロット機能。Duet AIは、Googleが生産性向上ツールとしてエンタープライズなどに提供している「Google Workspace」やGoogle Cloudなどに、画像認識を利用した自動化機能、LLMを利用した文字起こしツールなどさまざまな機能を提供し、ユーザーの利便性を向上させるものになる。今回のNext '23ではそうしたDuet AIの機能拡張が発表されている。

 「Duet AI in Google Meet」は、Workspaceのサービスとして提供されている電話会議ツール「Meet」へのDuet AIを利用した機能拡張になる。具体的にはミーティングの文字起こしと要約の作成を、LLMを利用して行う。また、その文字起こししたツールをキャプションとして画面に表示し、さらに18の言語間で翻訳して表示することも可能になる。また、AIを利用したサウンドのクリアー化といったオーディオ周りの機能も実装される。

 「Duet AI in Google Chat」では、Google ChatツールにDuet AIを利用したチャットボットの実装が可能になる。チャットボットにスペース(Slackなどでいうところのスレッド)の要約を求めたり、見逃したコメントを教えてもらったりなどの機能を利用することが可能になる。それにより、よりインタラクティブにGoogle Chatを利用することが可能になる。