ニュース

AMD、“Milan-X”こと「3D V-キャッシュ搭載第3世代EPYC」を2022年第1四半期に投入

FP64でNVIDIA A100の4.9倍の性能を実現したGPU「AMD Instinct MI200」も発表

 半導体メーカーの米AMDは8日(現地時間、日本時間11月9日)にオンラインで記者会見を行い、サーバー向けプロセッサ「3D V-キャッシュ搭載第3世代EPYC」(開発コード名:Milan-X)を、2022年第1四半期に投入する計画であることを明らかにした。

 3D V-キャッシュ搭載第3世代EPYCは、その名の通りL3キャッシュが3D形状で搭載されており、1ソケットで最大804MBのキャッシュメモリを搭載可能になる。これにより、従来の第3世代EPYC(開発コード名:Milan)と比較して、L3キャッシュの搭載量が3倍になった。CPUでは、メモリレイテンシが性能に与える影響が大きいため、大容量のL3キャッシュを搭載することは大きな性能強化につながると考えられている。

AMDの3D V-キャッシュ搭載第3世代EPYC(写真提供:AMD)

 またAMDは、昨年発表したデータセンター向けGPU「AMD Instinct MI100」の後継として、2つのダイを1つのパッケージに封入した「AMD Instinct MI200」を発表した。AMDではこのAMD Instinct MI200について、FP64(倍精度浮動小数点演算)の演算性能で47.9TFLOPSの性能を発揮し、競合となるNVIDIA A100のFP64演算性能である9.7TFLOPSと比較して、約4.9倍の性能があると主張している。

AMD Instinct MI200シリーズ(写真提供:AMD)

Milan-Xの開発コードネームで知られる第3世代EPYCを2022年第1四半期に投入

 今回AMDが発表したのは、AMDがMilan-Xの開発コード名で開発してきた製品で、AMDが3月に発表し、すでに市場に投入されているデータセンター向けCPU「第3世代EPYC」(開発コード名:Milan)の改良製品となる。製品名は「3D V-キャッシュ搭載第3世代EPYC」で、第3世代EPYCの性能はそのままに、追加のL3キャッシュを3D方向に実装し、追加したものになる。

AMD、“Milan”ことZen 3コアに進化した第3世代EPYCを発表
キャッシュ階層の改良でIPCを向上、6chメモリもサポート
Intelの第2世代Xeon SPと比較して倍以上速いと公表
https://cloud.watch.impress.co.jp/docs/news/1312224.html

 具体的には、パッケージのサブ基板(サブストレート)に実装される段階で、従来のMilanのダイの上に、AMDが3D V-キャッシュと呼ぶ追加のSRAMが実装され、その上からヒートスプレッダと呼ばれるアルミ製のカバーが掛けられる構造になっている。

 こうした3D方向にダイを実装する技術は、現在半導体パッケージングの新しいトレンドになっており、従来AMDは、CPUをCCD(1つにつき8コアCPU)と呼ばれるダイに分割して生産し、それをサブストレートの上で2D方向に複数実装するパッケージング技術「チップレット」を採用していたが、今回の手法はそのチップレットを3D方向に拡張するため、「3D チップレット」などと呼ばれることもある。

3Dチップレット(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 AMDによれば、今回の3D V-キャッシュ搭載第3世代EPYCでは、もともとCCD1つあたりに32MBのL3キャッシュが搭載されていたが、3Dチップレットにより64MBがCCD1つあたりに追加され、CCD1つあたりに合計96MBのL3キャッシュが搭載されることになる。

 3D V-キャッシュ搭載第3世代EPYCはCPUコアが最大64コアになるので、8つのCCDがCPUパッケージ内に実装されている計算になり、96MB×8=768MBのL3キャッシュをCPUソケット1つあたりに搭載する計算になる。

 なおAMDでは、L1キャッシュ(CPUコア1つあたり32KBの命令/データ)、L2キャッシュ(CPUコア1つあたり512KB)も含めて、CPUソケット1つあたりに808MBのキャッシュメモリを搭載していると説明している。CPUソケットは従来のSP3と互換で、BIOSなどのアップデートなどにより従来の第3世代EPYCと同じものが利用できる。

808MBのキャッシュメモリを搭載(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 最近のCPUは並列性が高まっているため一概にはそうとは言えなくなっているのだが、基本的な考え方としては、OSなどから来た命令を順々に処理していく形のプロセッサでは、メモリからデータを読み込んで来る時間(メモリレイテンシ)をできるだけ短くできれば、性能を高められる。キャッシュメモリが大きくなればなるほど、結果的にメモリレイテンシを削減できるようになることから、その効果は決して小さくない。

 実際、AMDが公開したデータによれば、Synopsys VCSを利用した演算では、3D V-キャッシュなし/ありを比較すると、66%もキャッシュありの方が高速だという。なお、同じ32コア/2プロセッサのXeon SP 8362(Ice Lake-SP)とEPYC 75F3(現行製品)を比較すると、ANSYS Mechanicalで33%、Altair Radiossで34%、ANSYS CFXで40%ほどEPYCが上回っていると、AMDでは説明している。

3D V-キャッシュなしとありでは66%の性能の違い(出典:ACCELERATED COMPUTING PMIMIER、AMD)
Xeon SP 8362(Ice Lake-SP)とEPYC 75F3の比較(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 AMDによれば、3D V-キャッシュ搭載第3世代EPYCは2022年の第1四半期に発表される計画になっているということだ。

NVIDIA A100をFP64で4.9倍の性能を実現したAMD Instinct MI200シリーズ

 AMDは同時に、同社のデータセンター向けGPU「AMD Instinct MI200シリーズ」を発表した。AMD Instinct MI200シリーズは、昨年AMDが発表したAMD Instinct MI100シリーズの後継となる製品で、同社が「2.5D Elevated Fanout Bridge(EFB)」と呼ぶ2.5Dの実装技術を利用し、1つのパッケージあたりに2つのGPUダイを統合することで、性能を高めた製品となる。

AMD Instinct MI200シリーズの概要(出典:ACCELERATED COMPUTING PMIMIER、AMD)
2.5D Elevated Fanout Bridge(EFB)(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 またGPUのアーキテクチャ自体も、次世代のGPUアーキテクチャ「CDNA 2」へと進化しており、大きな性能向上を実現した。メモリも、従来のHBM2から強化されたHBM2E(1.6GHz)に変更されており、パッケージあたり128GBが搭載されている。

CDNA2に対応(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 AMDによれば、最上位モデルとなるMI250Xと、NVIDIA A100を比較した場合、FP64(倍精度浮動小数点演算)では4.9倍、FP32(単精度浮動小数点演算)では2.5倍、さらにBF16(Bflot 16)のFP16(半精度浮動小数点演算)では約1.2倍となっており、いずれもA100を大きく上回っているとAMDでは説明している。

性能比較(出典:ACCELERATED COMPUTING PMIMIER、AMD)

 AMD Instinct MI200シリーズには、ソケット型の「MI200 OAM」とPCI Express拡張カード型の「MI210 PCIe」の2つの種類の製品が用意され、前者はすでに提供開始されている。また後者は、今後投入される計画だ。

 なおMI200 OAMには2つSKUが用意されており、トップSKUのMI250Xは、220のCU(Compute Unit)を備え、128GBのHBMメモリというスペック。下位SKUはMI250で、208のCUを備えて、128GBのメモリというスペックになっている。

AMD Instinct MI200シリーズ(出典:ACCELERATED COMPUTING PMIMIER、AMD)