Infostand海外ITトピックス

Google Cloudは「Duet AI」で大幅強化 Google I/O 2023

 Googleの年次イベント「Google I/O 2023」は、予想通りAIが主役となった。Google Mapsなど消費者向けサービスから生産性ツール、クラウド開発者向けまで、全分野で生成AI関連の発表があり、まさに“Google AI”イベントだったとの声も出る。ここではGoogle Cloudに関連した発表と狙いを確認しておこう。

最新LLM、基盤モデルなどを発表

 生成AIは大規模言語モデル(LLM)を利用し、推論・計算にも多くのリソースを要するためクラウドで実行するのに向いている。クラウド各社は、生成AIが次のドル箱になると期待して、自社のクラウドにAIアプリケーションを取り込むことを狙っている。

 そのアプリケーション開発者向けとしては、Microsoft傘下のGitHubが「Copilot X」を3月下旬に発表した。これを追うGoogleも、既に機械学習プラットフォーム「Vertex AI」や「Generative AI App Builder 」などを発表しており、今回のイベントを迎えた。

 Google I/Oで同社は最新の大規模言語モデル「PaLM2」と、Vertex AIで利用できる3種類の基盤モデルを発表した。さまざまな製品のベースになり、これを補完する機能として、テキストや画像データをマッピングする「Embeddings APIs for text and images」や、人間のフィードバックによる強化学習「RLHF」なども発表している。

 基盤モデルは、テキストをコードに変換する「Codey」、テキストをイメージに変換する「Imagen」、音声・テキスト変換の「Chirp」の3つがある。これらの基盤モデルは、「Generative AI Studio」のUIからAPI経由でアクセスできる。

 ユースケースでは、Imagenは製品やロゴなどの画像生成、Chirpはコンタクトセンターのバーチャルエージェントなど、ビジネス利用を挙げている。

 AIを活用した機能の利用が増えると、処理能力への要求も増す。これに対しては最新のAI特化型スパコン「next-generation A3 GPU supercomputer」を発表した。A3で提供するA3 VMは、従来の「A2 VM」と比べ、推論性能が最大30倍向上しているという。

 A3はNvidiaの最新Hopperアーキテクチャベースの「H100 GPU」を8個搭載し、従来の3倍のスループットに高速化した。「GPU数は2万6000個まで拡張可能で、フルスペックのA3は最大26エクサFLOPSのAI性能を発揮できる」(Data Centre Dynamics)という。