データセンターカフェ

Google、生成AI特化のクラウドサービスを加える中、最新TPUとNvidia H100 GPUの提供を発表

TPU v5eは性能が倍増

 Googleは、自社クラウドプラットフォーム向けにいくつものAIに特化したツールやサービスを発表しました。

 また同時に同社は、Cloud TPU v5eのプレビュー版の提供を開始したと発表しました。2021年にリリースされたTPU v4と比較し、このチップは大規模言語モデルや生成AIモデルにおいて、1ドルあたりの学習性能が最大2倍、推論性能が最大2.5倍高速になっているとGoogleは述べています。

 また、この最新TPUは8種類の仮想マシン構成が用意され、1つのスライスで1~250までのTPUチップの利用が可能となっています。より多くの計算が必要な場合は、数万基のチップに対応する「マルチスライス」を用意しています。

 「これまでは、TPUを使ったトレーニングジョブはTPUチップの1スライスに制限されており、TPU v4の最大スライスサイズは3,072チップまででした」GoogleのML・システム・クラウドAI担当副社長Amin Vahdat、コンピュート・MLインフラ担当副社長Mark Lohmeyerの両氏は共同ブログ投稿でこのように述べています。

 「マルチスライスを使えば、開発者は単一のポッド内でチップ間相互接続(ICI)を介して、あるいはデータセンターネットワーク(DCN)を介して複数のポッド間で、ワークロードを最大数万チップまで拡張することができます」

ニュース提供元:データセンターカフェ

データセンターカフェは、日本のデータセンター業界に関わられている方々に向けた、世界中のデータセンター・ITインフラ/ファシリティに関する最新ニュースや技術動向等の発信に特化したニュースメディアサイトです。