特別企画

AMD、サーバー向け新アーキテクチャCPU「EPYC」を発表

後藤弘茂氏による詳細レポート

設計思想とターゲット市場が異なるAMDとIntel

 IntelとAMDのアーキテクチャの違いは、両者の設計思想とターゲットとするワークロードの違いから来ている。具体的には、最適化する「バーチャルマシン(VM)」のサイズの違いとなっている。ひとつのVMの中では、メモリの一貫性を保つためにアクセスするメモリやキャッシュへのアクセスのレイテンシが大きいと性能が低下してしまう。そのため、EPYCでは、原理的に多数のCPUコアを使うVMでは、Xeon Scalableに対して性能面で不利になる。

 しかし、AMDによると、EPYCでターゲットとする1Pから2Pのサーバー市場では、典型的なVMのサイズは2~4コアまでが80%を占めるという。AMDアーキテクチャでは、CPUコアは4個ずつひとつのコンプレックスに密接に統合されている。80%のVMはこの4CPUコンプレックスの中に収まる。さらに、8コアまでのサイズのVMとなると、AMDのターゲット市場の95%をカバーできるという。8コアまでのVMは、EPYCの8CPUのダイに収まる。

AMDのEPYCアーキテクチャとバーチャルマシンのサイズの関係

 それに対してIntelアーキテクチャでは、最大28CPUのVMまでひとつのダイでカバーできる。Intelは、スケールアップしたワークロードで利点を発揮するアーキテクチャと言える。AMDとIntelのアーキテクチャの違いは、どちらが優れているかではなく、どういった市場とワークロードに最適化しているかを反映している。

AMDは増大しつつある新しいワークロードへの対応をうたう

 AMDによると、EPYCのターゲット市場を研究した結果、VMデンスなワークロードが支配的になっているため、マルチダイ設計で十分性能を発揮できると判断したという。AMDは、EPYCアーキテクチャは、ボリュームサーバー市場の大多数のワークロードでより高い性能を発揮することができると見ている。また、過去5年のデータセンターのワークロードのトレンドは、EPYCがターゲットとしている方向へと向かっていると言う。逆を言えば、Intelアーキテクチャは、今となっては市場規模が小さくなったワークロードに最適化しており、トレンドに乗っていないとAMDは見ている。

 もっとも、IntelもXeon ScalableではCPUコアグループを分割しやすいメッシュネットワークに切り替えており、キャッシュも応答性を重視したアーキテクチャに切り替えている。必ずしも対応していないとは言えない。AMDとIntelの違いは、VMデンスワークロードをどれだけ重視するかの違いと言えそうだ。

メモリ帯域とI/Oが重要となってきたデータセンター

 AMDは、サーバー市場のワークロードでは、メモリ帯域とI/Oコネクションの重要性も増していると説明する。EPYCアーキテクチャによる広いメモリ帯域と多数のI/Oは、幅広いアプリケーションで性能アップをもたらすという。例えば、科学技術系シミュレーションではメモリ帯域が制約となるアプリケーションが非常に多い。EPYCの8チャネルのDRAMによる1CPUあたり最大171GB/secでは、そうしたアプリケーションの性能がアップする。科学技術系シミュレーションやビッグデータ解析、ディープラーニングといったアプリケーションでは、データがリユースされないためキャッシュがあまり効かない場合が多いため、メモリ帯域が重要となる。

 もっとも、そうしたアプリケーションに対しては、現在ではGPUやアクセラレータを使うケースも多い。その場合は、EPYCの膨大なI/Oリンク数が生きるという。EPYCでは1プロセッサ/2プロセッサどちらでも128レーンのPCI Expressがあり、GPUやアクセラレータをダイレクト接続できる。ストレージやネットワークへの接続を除いても、PCI Express gen3 x16で6個のGPUを接続可能だ。Intelプラットフォームの場合は、PCI Expressブリッジチップが必要となるが、EPYCでは直接続できるため、性能や設計の面で有利となる。

EPYC 2PでのGPUコンピュート構成
EPYC 1PでのGPUコンピュート構成
Intelプラットフォームの場合多数のGPUの接続にはPCI Expressスイッチが必要となる
多数のI/Oを備えたEPYCのアドバンテージ

 AMDは、ハイパフォーマンスGPUのトップメーカーのひとつでもあり、EPYCに合わせてGPUコンピュート向けに「Radeon Instinct」ファミリを投入する。EPYCの発表会では、EPYCに4台のRadeon Instinctを接続した、100TFLOPS(FP16 半精度浮動小数点演算)をマシンラーニング向けに展示していた。

 EPYCの128レーンのPCI Expressは、ストレージサーバーなどで大きな力を発揮する。例えば、HPEは、1PのEPYCベースで24台のNVMeストレージを直結できる1Uサーバーを発売する。極めて高いIOPSで、ビッグデータ解析やインメモリデータベースなどのアプリケーションに対応する。

HPEのEPYCベース1Pサーバー「HPE Cloudline CL3150」