ニュース
Intel、HPC向けCPU/GPUで「Maxシリーズ」ブランドを採用 1月初頭に第4世代Xeon SPの正式発表も表明
2022年11月9日 23:05
米Intelは、11月9日(米国時間)に報道発表を行い、同社が「Sapphire Rapids with High Bandwidth Memory」の開発コード名で開発してきた、HBMメモリを搭載したXeonプロセッサを「Intel Xeon CPU Maxシリーズ」の名称で提供することを発表した。あわせて、Ponte Vecchioの開発コード名で開発してきたGPUの製品名が、「Intel Data Center GPU Maxシリーズ」になることも明らかにしている。
前者は、第4世代Xeon Scalable Processorに採用される予定のSapphire RapidsのCPUに、HBM2eメモリを搭載した形の製品で、広帯域幅のメモリが必要となる処理で高い性能を発揮する。
後者は47個のダイから構成されている巨大チップで、FP64(倍精度浮動小数点)演算時に52TLOPSのピーク性能を実現している超高性能GPUとなる。
Intelによれば、Intel Xeon CPU Maxシリーズは、HBMなしの通常版の第4世代Xeon Scalable Processorと一緒に、来年の1月初頭に正式発表される予定で、延期されていた第4世代Xeonの正式な提供時期が明らかにされた形だ。
64GBのHBM2eメモリをパッケージに内蔵し、3つのモードで利用可能なIntel Xeon CPU Maxシリーズ
Intelは従来、HPC向けの製品には特別なブランド名はつけてこなかった。HPC向けの製品であってもCPUはXeon、GPUはData Center GPUという名称で、データセンター向けのブランドと同じブランド名が利用されてきたのだ。しかし今回の製品から、そうしたデータセンター向けCPU/GPUであっても、特にHPC向けは「Maxシリーズ」という名称が用意され、CPUは「Intel Xeon Maxシリーズ」、GPUは「Intel Data Center GPU Maxシリーズ」と呼ばれることになった。
そうしたHPC向けのMaxシリーズのCPUとして発表されたのが、Intel Xeon CPU Maxシリーズだ。これまではSapphire Rapids with High Bandwidth Memoryの開発コード名で知られてきた製品であり、Intelが第4世代Xeon Scalable Processorとして開発しているSapphire Rapidsに、広帯域メモリのHBM2eをパッケージ上で統合した製品となる。
Sapphire Rapidsでは、4つのCPUダイがパッケージ上で1つに統合されている。全体で56コアのCPUコアがあるので、ダイ1つあたり14コアのCPUコアがある計算になる(Intelによれば、アーキテクチャ的には15コアだが、製造上の都合などにより14コアになっているとのこと)。その14コアのCPUダイ1つに、16GBのHBM2eメモリが接続されており、パッケージ全体で64GBのメモリが実装されている。
このHBM2eは1TB/秒の帯域幅になっており、3つのモードを切り替えて動作することが可能になっている。それがHBMオンリーモード、HBMフラットモード、HBMキャッシングモードの3つだ。
HBMオンリーモードはその名の通りで、マザーボード上のDIMMにメモリを挿入していない状態で動作し、HBMメモリだけをシステムメモリとして利用する。HBMフラットモードは、CPU上のHBMメモリとマザーボード上のDDR5メモリの両方を利用するモードで、性能はメインメモリと同等になってしまうが大容量メモリとして利用することができる。HBMキャッシングモードは、HBM2eメモリをキャッシュ(つまりはL4キャッシュとして利用する)として利用する形になり、HBMの広帯域とDDRの大容量をバランスよく利用することができる。
Xeコアを128基搭載し、408MBという巨大なL2キャッシュを搭載するIntel Data Center GPU Maxシリーズ
GPUのIntel Data Center GPU Maxシリーズは、これまで開発コード名「Ponte Vecchio」と呼ばれてきた製品で、Intelの2.5Dパッケージング技術EMIB、3Dのパッケージング技術Foverosを組み合わせて、最大で47個のタイル(ダイ)を1つのパッケージに統合している製品となる。
Intelが公開した資料などによれば、Intel Data Center GPU Maxシリーズには8つのGPUタイル(ダイ)から構成されているスタックが2つパッケージ内に実装されており、それぞれのタイルに8つのXeコアとハードウェア・レイ・トレーシング・エンジンが内蔵されており、GPU全体では、16(タイル)×8(Xeコア、HWRTエンジン)=128Xeコア、128HWRTエンジンが実装されている計算となる。
Intelによれば、倍精度および単精度の浮動小数点演算(FP64/FP32)で52TFLOPS、半精度(FP16)で104TFLOPS、内蔵されているXMXエンジンを利用した場合(TF32)では419TFLOPS、XMXを利用したBflot16では839TFLOPS、XMXを利用したINT8で1678TOPSの性能を実現する。
特徴的なのは巨大なL2キャッシュで、408MBというGPUとしては巨大なL2キャッシュになっている。例えば、NVIDIAのH100では60MBのL2キャッシュとなっているので、このIntel Data Center GPU MaxのL2キャッシュが非常に巨大であることが容易に理解できるだろう。また、メモリはパッケージ内に搭載されており、HBM2eを最大128GBまで搭載可能になっている。
このほか、Xe Linkと呼ばれる、GPUとGPUを接続しスケールアップするインターコネクトも特徴の1つだ。これにより、最大で8GPUまでスケールアップすることが可能になっている。
こうしたIntel Data Center GPU Maxシリーズは3つのSKUが用意されている。PCI Express拡張カードが1つ、OAMが2つで、それぞれスペックは以下のようになっている。
HBMなしのSapphire Rapidsと合わせ、1月に正式発表予定と明らかに
Intelによれば、Intel Xeon Maxシリーズは、HBMなしのSapphire Rapidsとなる、第4世代Xeon Scalable Processorと合わせて1月初頭に正式に発表され、SKU構成などは、その1月の正式発表時点で公開される予定とのこと。
2022年の年末までに顧客への出荷が開始され、正式発表後にDell、HPE、LenovoなどのOEMメーカーから顧客への出荷が開始される予定。このように、延期されてきたSapphire Rapidsの正式な発表時期が、今回の発表でようやく明確になったことになる。
GPUのIntel Data Center GPU Maxシリーズは、まずアルゴンヌ国立研究所に設置される計画のスーパーコンピューター「Aurora」に採用され、その後来年の第2四半期からより広範な顧客に対しても提供が開始される計画だ。