ニュース

AMD、最大192CPUコアを実現する第5世代EPYCと、NVIDIA H200対抗のInstinct MI325X GPUを正式発表

 米AMDは10日(米国時間、日本時間10月11日未明)に、米国カリフォルニア州サンフランシスコ市にあるモスコーンセンター南館において、イベント「AMD Advancing AI 2024」を開催し、同社CEO リサ・スー氏などが登壇し同社のAI向け最新製品を発表した。

 この中でAMDは、これまで開発コード名「Turin」(チューリン、日本語ではトリノ)で知られてきた「5th Gen AMD EPYC processors」(第5世代AMD EPYCプロセッサ、以下第5世代EPYC)を発表した。第5世代EPYCは、Zen 5という新しいCPUアーキテクチャを採用し、CPUの性能を大幅に高めていることが特徴となる。CPUの種類は、CPUあたりのL3キャッシュの容量差で2種類あり、通常版のZen 5版が最大128コア、コンパクト版のZen 5c版では最大192コアのCPUコア数を実現する。

第5世代EPYC(写真提供:AMD)

 また同時に、昨年同社が発表したデータセンター向けGPU「Instinct MI300X」の後継製品となる「Instinct MI325X」を発表した。Instinct MI325Xでは、メモリが従来のMI300Xの192GB HBM3から256GB HBM3eに強化されており、メモリ帯域幅も6TB/秒と1.3倍になっている。

Zen 5c版では1ソケットで192コアという高密度を実現する第5世代EPYC

 今回AMDが発表した第5世代EPYCは、2022年11月に発表された第4世代AMD EPYCプロセッサ(以下、第4世代EPYC、開発コード名:Genoa)の後継となるデータセンター向けのCPUだ。

 AMDは第4世代EPYCにおいて、高性能コア(Zen 4)を持つ低遅延メモリで高性能にフォーカスしたGenoaと、CPUコアあたりのL3キャッシュの容量を半分にすることでCPUコアのダイサイズを縮小した高効率なコア(Zen 4c)を採用したBergamoにわけて製品を開発、発表した。

 しかし、今回の第5世代EPYCでは、通常版になるZen 5を採用した製品も、Zen 5cを採用した製品もどちらも、Turinの開発コード名が与えられて開発が行われてきた。そのため、発表された第5世代EPYCの最初のシリーズとなる「EPYC 9005シリーズ プロセッサ」のSKU構成は、Zen 5cとZen 5が混在する形になっている。

SKU構成(出典:5th Gen AMD EPYC CPUs、AMD)

 Zen 5に比べてL3キャッシュが少ないZen 5cは、1つのダイにより多くのCPUコアを詰め込むことが可能になっており、Zen 5cの最上位SKUとなるEPYC 9965は192コア、Zen 5の最上位SKUとなるEPYC 9755は128コアと、第4世代EPYC時の最大コア数であるZen 4cの128コア、Zen 4の96コアに比べて、ソケットあたりのCPUコア数が増えているのが特徴になっている。

第5世代EPYCの技術概要(出典:5th Gen AMD EPYC CPUs、AMD)

 AMDによれば、Zen 5はアーキテクチャレベルでさまざまな改良が加えられており、それにより1クロックあたりで実行できる命令数が増え、実行効率が高まっているという。また、従来世代では256ビット単位で処理されていたAVX512命令実行時の処理は、512ビットに拡張されており、同じAVX512命令を実行する場合でも効率が改善されている。

1クロック周波数で実行できる命令数が増えており、より効率よく命令を実行できる(出典:5th Gen AMD EPYC CPUs、AMD)

 また、Zen 5はTSMCの4nm、Zen 5cは3nmと最新のプロセスノードで製造され、いくつかのSKUでは、ターボモードで5GHzのクロック周波数に達することが可能になっている。

 なお第5世代EPYCのプラットフォームは、第4世代EPYCと同じSP5ソケットを採用し、第4世代EPYCとピン互換になっている。このため、第4世代EPYC用マザーボード側のファームウェアなどをアップグレードすることで、第5世代EPYCに対応させることができる。メモリは12チャンネルで、今回新たにDDR5-6400に対応する。

 I/O周りのスペックは、PCI Express 5.0に対応しているのは第4世代EPYCと同じだが、新たにCXL 2.0に対応している。また、コンフィデンシャルコンピューティングの機能として「Trusted I/O」に新たに対応し、CPUやGPUだけでなく、I/Oも含めてハードウェアを活用したデータ保護を行えるという。

Trusted I/Oに対応(出典:5th Gen AMD EPYC CPUs、AMD)

 なお、第4世代EPYCではTDPは最大400Wだったが、第5世代EPYCでは最大500Wに引き上げられる。TDP 500WのSKUを利用する場合には、空冷では冷却が難しくなってくると考えられるので、水冷や液冷、場合によっては液浸などのより高効率な放熱機構が必要になっていくだろう。

Intelの第5世代Xeon SPとの性能比較(出典:5th Gen AMD EPYC CPUs、AMD)

Instinct MI300Xのメモリ強化版となるInstinct MI325Xを正式発表、今四半期中に出荷開始

 AMDは昨年の12月に「Instinct MI300シリーズ」を発表し、CPUとGPUが1つのパッケージ上で統合されているInstinct MI300A、GPU単体のInstinct MI300Xを発表した。

 今回AMDは、後者のGPU「Instinct MI300X」の後継となる「Instinct MI325X」を発表した。今四半期中にOEMメーカー向けの出荷が開始され、来四半期中(2025年第1四半期)にOEMメーカーなどから販売開始される計画だ。

Instinct MI325X(写真提供:AMD)
今四半期に出荷開始され、来四半期に提供開始予定(出典:AMD INSTINCT GPU ACCELERATORS、AMD)

 Instinct MI325Xの最大の特徴は、メモリ容量と帯域幅が増えていることだ。従来のInstinct MI300Xでは192GBのHBM3で、ピーク時の帯域幅は5.3TB/秒になっていた。それに対してInstinct MI325XではDRAMがHBM3eに変更され、容量が256GBに、そしてピーク時の帯域幅は6TB/秒に強化されている。

 GPUのアーキテクチャは、MI300XのCDNA 3と変化がないため、FP16時のスループットは1.3PFLOSと同性能になっているが、AIの学習時などに処理能力に大きな影響を与えるメモリ容量やメモリ帯域幅が増えたことは、実際の性能に大きな影響を与える。

Instinct MI325Xの特徴(出典:AMD INSTINCT GPU ACCELERATORS、AMD)

 こうしたアップグレードは、NVIDIAもHopper世代でH100(80GB/HBM3、3.35TB/秒)から、H200(141GB/HBM3e、4.8TB/秒)へと強化したのと同じアップグレードと考えられ、AMD自身も性能をH200と比較していることからも、H200の対抗製品に位置づけていると考えられる。

MI325XとNVIDIA H200の性能比較(出典:AMD INSTINCT GPU ACCELERATORS、AMD)

 なおAMDはすでに、MI325Xの後継として、新しいCDNA 4のアーキテクチャに対応したInstinct MI355Xを、2025年に投入する計画を明らかにしてきたが、Instinct MI355Xでは、FP6/FP4の低い精度を利用したAI演算が可能になることを明らかにした。用途によっては、精度を下げても正確性には大きく影響しないことが知られており、FP6やFP4といった精度でAIの学習や推論を行うことで、処理にかかる時間を短縮できる。

 AMDによれば、MI355XのFP6/FP4のスループットは9.2PFLOPSになっており、NVIDIAのBlackwell(B200)の20PFLOSに比べると、スペック上は約半分ということになる。なお、MI355Xではメモリは288GB/HBM3eに強化され、GPU全体のメモリ帯域は8TB/秒に達する計画であることを明らかにしている。

 AMDによれば、MI355Xは3nmのプロセスノードで製造され、2025年の後半に提供開始される計画ということだ。

MI355Xの概要(出典:AMD INSTINCT GPU ACCELERATORS、AMD)
FP6/FP4で9.2PFLOPSのスループットを実現(出典:AMD INSTINCT GPU ACCELERATORS、AMD)