ニュース

NVIDIA、AI演算用サーバー「DGX-H100」の受注開始と2023年第1四半期からの出荷開始を発表

L40 GPUを搭載したメタバース向けサーバー「OVX」第2世代も

 米NVIDIAは9月20日(現地時間)、同社のプライベートイベント「GTC」にて、同社 CEO ジェンスン・フアン氏による基調講演を行い、各種ソリューションなどを発表した。NVIDIAはその講演後に各種報道発表を実施し、そうした、GTCの基調講演で公開された内容などを解説している。

 その中でNVIDIAは、エンタープライズ向け、およびクラウドソリューション向けの発表を行っており、3月開催の春のGTCにおいて発表されたAI向けGPUとなる「NVIDIA H100 GPU」(開発コードネーム:Hopper)、およびそのH100を8つ搭載したAI演算用サーバー機器「DGX-H100」の受注を開始したことを明らかにした。ただし、DGX-H100の受注は開始されたものの、出荷は2023年第1四半期になるとNVIDIAは説明している。

NVIDIAのDGX-H100は受注が開始され、出荷開始は2023年の第1四半期となる

 またNVIDIAは、開発コードネーム「Lovelace」で知られてきた新GPUアーキテクチャを採用した「NVIDIA L40 GPU」を8つ搭載する、メタバース向けの演算装置「NVIDIA OVX」を発表し、LenovoやSupermicroなどのOEMメーカーが来年初頭から販売を開始することも明らかにした。

H100 GPUの大量出荷開始を発表、DGX-H100は即受注開始だが提供開始は23年第1四半期から

 NVIDIAは、春に行われたプライベートイベントのGTCにおいて、同社の最新AI演算用GPUであるNVIDIA H100 GPU(以下、H100)、およびそのHopperを8つ搭載したAI演算用サーバー機器のDGX-H100をそれぞれ発表している。

HopperことNVIDIA H100 GPU

 ただし、その時点では、アーキテクチャの概要やDGXのスペックといった詳細が明らかにされただけで、実際の出荷は「第3四半期になる」とNVIDIAは説明していた。

 今回はその発表の通りにH100の大量出荷が開始され、10月から搭載製品の出荷が開始されることが明らかになった。最初に出荷されるのは、NVIDIAが提供しているクラウドベースのAIソフトウェアテスト環境となるNVIDIA LaunchPad向け、およびAtos、Cisco、Dell Technologies、Fujitsu、GIGABYTE、Hewlett Packard Enterprise、Lenovo、SupermicroといったOEMメーカーで、今後数週間内、具体的には10月からH100搭載製品の出荷が開始され、年末までに50のサーバー製品が市場に出回る予定になっているという。さらに来年の前半には、追加の製品も登場する見通しとした。

 それに対して、NVIDIAの自社ブランド製品となるDGX-H100は、受注は9月20日より開始されるが、出荷開始は2023年第1四半期になるとNVIDIAでは説明している。その理由として、公式には「ソフトウェアや動作検証などに時間がかかっているため」と説明されているが、実際の所は別の所に理由がありそうだ。

 DGX-H100のCPUは、Intelの次世代Xeon スケーラブル・プロセッサー(以下、Xeon SP)となるSapphire Rapids(開発コード名)であることが、すでにNVIDIAとIntelから明らかにされている。Intelは、NVIDIAのDGX-H100にSapphire Rapidsが採用されたことを、2022年度第2四半期の決算報告の中で明らかにしている。

 しかし、よく知られているように、もともとは今年の早い時期に発表されるはずだったSapphire Rapidsは、今になっても正式に発表されていない。Intelは5月に行った自社イベント「Vision」において、特定の顧客への出荷を開始したことは明らかにしているが、今になっても正式な大量出荷や製品の発表などは行われていない。

 となると、そのSapphire Rapidsを搭載したDGX-H100もそれに巻き込まれている可能性が高い、そう考えることは可能だろう(NVIDIAはその件に関しては何も言及しておらず、ソフトウェアや動作検証に時間がかかっている、とだけ説明しているのは前述の通り)。

 いずれにせよ、DGX-H100に関しては受注は始まったが、出荷に関しては来年の第1四半期ということが現在の公式スケジュールになる。このため、H100を搭載したシステムをいち早く手に入れたいなら、10月に登場するOEMメーカーのシステムをオーダーするのが最短ということになるだろう(OEMメーカーの製品も入手は競争になると考えられるが)。

デジタルツインを実現するNVIDIA OVXの第2世代が発表、BMWなどが採用

 NVIDIAは、「Lovelace」の開発コードネームで知られる新GPUアーキテクチャを採用した「NVIDIA L40 GPU」と、それを搭載したメタバース向けのサーバーアプライアンス「NVIDIA OVX」の第2世代製品を、それぞれ発表した。

L40 GPUを搭載したNVIDIA OVXの第2世代

 NVIDIAによれば、OVXは以下のようなスペックになっている。

・L40 GPU x8
・ConnectX-7 SmartNIC x3
・Intel Xeon Scalable Processor Platinum 8362 x2
・16TB(NVM Express)

 L40 GPUは、従来のAmpereアーキテクチャ世代でNVIDIA A40 GPUとして提供されてきたPCI Expressカード形状の製品の最新版で、やはりPCI Express拡張カードの形状になっている。L40 GPUでは、Lovelace(ラブレース)という開発コード名で呼ばれてきたNVIDIAの最新GPUアーキテクチャを採用しており、従来のAmpereベースのA40に比べて性能が向上している。OVXでは、そのL40 GPUを8つまで搭載されている。

 また、スケールアウト(ブレードやラックをつないで並列実行できるGPUの数を増やしていくこと)のために、Mellanox由来のConnectX-7 SmartNIC(400GbpsのNIC)を3枚搭載。CPUとしてはIntel Xeon Scalable Processor Platinum 8362が2つ、ストレージとしては16TBのNVM Expressがそれぞれ搭載されている。

 また、このOVXを32ノード接続してOVX SuperPODを構成でき、その場合はスーパーコンピュータのようにOVXのクラスタを利用可能になる。

 このOVXの最初の顧客としては、いずれも自動車メーカーのBMWグループとジャガーランドローバーが発表されている。BMWグループ イノベーション・バーチャル製品主任 ユーゲン・ウィットマン氏は「弊社ではNVIDIAのOmniverse(筆者注:NVIDIAでのメタバースの呼び方)を利用したデジタルツインで、われわれの新しい形のファクトリーを計画している。NVIDIA OVXの高いパフォーマンスを利用して写真品質のファクトリーモデルとシミュレーションの機能を活用したデジタルツインのワークロードを実現し、われわれの製品製造の姿形を変えていきたい」と、NVIDIAの報道発表の中で述べ、OVXを利用することで、ファクトリーのデジタルツインの実現を目指すと説明している。

 NVIDIAによれば、Inspur、Lenovo、Supermicroから2023年の初頭に提供開始され、その後GIGABYTE、H3C、QCTからも提供される予定とのことだ。