ニュース
Intel、Pコア版Xeon 6とGaudi 3を正式発表、IBM CloudとエフサスがGaudi 3採用意向を表明
2024年9月26日 06:15
米Intelの日本法人であるインテル株式会社(以下、両社合わせてIntel)は、9月25日に東京都内で記者会見を行い、Intelが米国で9月24日(現地時間)に発表した、エンタープライズ向けのCPUやAIアクセラレータを日本でも発表した。
Intelが発表したのは、6月にIntelが発表した同社のデータセンター向けCPU「Xeon 6」の新しいシリーズとなる「インテルXeon 6プロセッサー(P-core採用)」(以下、Xeon 6(P-core採用))と、NVIDIAのH100に対抗する価格性能比を実現したAIアクセラレータ「インテル Gaudi 3 AI アクセラレーター」(以下Gaudi 3)の2製品。
記者会見では、日本のエフサステクノロジーズがGaudi 3の採用意向表明を行ったほか、グローバルではIBM Cloudで採用されることが明らかにされた。
6月に発表されたEコア版に続きPコア版のXeon 6が発表、まずは最上位の6900Pシリーズから
Intelは6月に台湾で開催されたCOMPUTEX 24において、Xeon 6を正式に発表している。6月の時点で発表されたXeon 6は、「インテルXeon 6プロセッサー(E-core採用)」(以下、Xeon 6(E-core採用))で、開発コード名ではSierra Forestで呼ばれてきた、CPUがEコア(高効率コア)だけで構成されたXeon 6となる。
このXeon 6(E-core採用)は、1ソケットで144コアないし288コアという、従来のXeonでは実現されなかったような高密度を実現する製品で、1つのサーバーに集約できるCPUコアを増やして、電力効率を改善する用途に向けた製品となる。6月の時点では144コア版が発表・投入され、来年の第1四半期に288コア版が投入される計画だ。
今回発表されたのは、Pコア(高性能コア)と呼ばれる、従来のXeon SPで採用されてきたCPUコアを採用したXeon 6(P-core採用)で、これまで開発コード名「Granite Rapids」で呼ばれてきた製品だ。従来の第4世代インテルXeonスケーラブル・プロセッサー(以下、第4世代Xeon SP)、第5世代インテルXeonスケーラブル・プロセッサー(以下、第5世代Xeon SP)の後継となるのが、今回発表されたXeon 6(P-core採用)という位置付けになる(つまり、従来のネーミングルールであれば第6世代Xeon SPになっていた製品ということ)。
新しいXeon 6(P-core採用)の特徴は、第4世代/第5世代Xeon SPで導入されたチップレットの技術がさらに進化していることだ。チップレットとは、半導体のパッケージ(サブ基板のこと)上で、複数のチップ(ダイのこと)を混載する技術。Intelのデータセンター向け製品では第4世代Xeon SPで導入され、第5世代Xeon SPでも活用されてきた。
今回のXeon 6(P-core採用)では、I/O(UPIやPCI Express/CXLなど)を別チップに分離して、コンピュートダイと呼ばれるCPUのチップを1つないしは複数個実装する形に進化。CPUコア数を最大で128コア(第5世代Xeon SPでは最大64コア)まで引き上げており、それによって大幅に性能が向上していることが大きな特徴となる。
なお、競合となるAMDの第4世代EPYCは、通常版が最大96コア、Bergamoの開発コード名で知られる、Zen 4cというL3キャッシュが小型化されているバージョンのCPUコアを採用した「第4世代EPYC 97X4」では128コアが最大数になるので、EPYCの通常版を上回り、高密度版のEPYCと並ぶCPUコア数を実現したことになる。
また、メモリチャンネル数も従来の第5世代EPYCでは8チャンネルまでとなっており、12チャンネルを実現していた第4世代EPYCと比較して劣っていたが、新しいXeon 6(P-core採用)では最大12チャンネル構成をサポートしたため、メモリ周りの仕様でも追い付いたことになる。
さらに、新しいメモリモジュールとなるMRDIMM(Multiplexed Rank DIMM)に対応し、1つのチャンネルに対して2ランクでアクセス可能にすることで、メモリのデータレートを2倍にできる。DDR5-4400相当のDRAMを利用すれば、DDR5-8800相当のデータレートを実現し、DDR5-6400などのシングルランクのDIMMに比べてより広帯域幅を実現可能になるわけだ。
ほかにも、CPUとGPUを接続する場合に利用するUPIは24GT/秒にデータ転送レートが高められ、かつ第5世代Xeon SPの4リンクから8リンクへと強化されている。
性能に関しては、第4世代EPYCとの比較で、AI推論で最大5.5倍、HPCで最大2.2倍と説明しており、AMDが6月のCOMPUTEX 23で公開した、AMDの次世代製品「Turin」(第5世代EPYCとして、2024年後半に発表とアナウンスされている)の性能データを元に比較しても、Xeon 6が上回るとアピールした。
今回のXeon 6(P-core採用)は、最上位シリーズのXeon 6 6900Pシリーズのみが発表され、以下のようなSKUが用意されている。
残りの製品となる6700P、6500P、6 SoC、6300Pなどは来年の第1四半期に発表される計画だ。
IntelのAIアクセラレータとなるGaudi 3が正式発表、チップレットにより性能は2倍以上に
Intelが発表したGaudi 3は、AIの学習や推論を専用に行うAIアクセラレータで、Google CloudのTPU、Microsoft AzureのMaia、AWSのTrainiumといったものと同様、AI学習や推論の処理を専用に行うASICチップだ。Intelは、2019年に買収したHabana LabsよりGaudiシリーズを取得して以来、2022年にGaudi 2、そして2024年のGaudi 3と進化させてきており、その名前からもわかるようにGaudi 3は第3世代のGaudi製品となる。
Gaudiシリーズの特徴は、スケールアップ/スケールアウトのためのハイスピードなイーサネットが用意されていることだ。Gaudi 3には1200GB/秒(双方向)で通信可能なネットワーク機能が用意されており、それとスイッチなどを組み合わせることで8、16、64、128、512とスケールアップ/スケールアウトして利用できる。ソフトウエア側からは1つのGaudi 3も、そうしてスケールアップ/スケールアウトされたGaudi 3のクラスターも同じ1つのGaudi 3に見えるため、スケールアップ/スケールアウトしていくことで、AI学習にかかる時間を短縮可能になる。
Gaudi 3では、プロセスノードが7nmから5nmへ微細化されているほか、チップレット技術を利用して2つのダイを1つのパッケージに封入することが可能になっているため、演算器の数が倍、メモリコントローラも倍、イーサネットも倍になっており、処理能力が大幅に向上していることが特徴だ。
Gaudi 2では行列演算を利用したBflot16のスループットが432TFLOPSだったのに対して、Gaudi 3では1835TFLOPS、Gaudi 2の行列演算を利用したFP8のスループットは865TFLOPSだったのに対して、Gaudi 3では1835TFLOPSに強化されている。メモリはどちらもHBM2eだが、メモリ容量は96GBから128GBに増やされ、帯域幅は2.46TB/秒から3.7TB/秒へと強化されている。
こうしたGaudi 3だが、搭載されたシステムは、第4四半期に出荷が開始される計画。Dell Technologies、Supermicroの2社がOEMメーカーとしてアナウンスされており、DellはPowerEdge XE9680を10月に、SupermicroはX14を10月にそれぞれ出荷する計画だと発表されている。
- 初出時は3社よりシステムが出荷される予定としておりましたが、うち1社より変更の連絡があったため、記載をあらためました。
国内のサーバーベンダー エフサスがGaudi 3の採用意向を表明し、グローバルにはIBM Cloudで採用
9月25日に東京都内でIntelが開催した会見では、Gaudi 3の採用事例などが紹介された。インテル株式会社 執行役員 技術本部長 町田菜穗氏は、Gaudiを採用した導入事例などを紹介した。
町田氏は「日本で9月上旬に行ったIntel Connectionというイベントでは、富士通がGaudi 2とH100を比較したデータを公開し、1.8倍の高コストパフォーマンスを実現していると評価された。また、同イベントではNTTデータグループにも登壇いただき、A100との比較検証の結果を説明してもらった」と述べ、Gaudiシリーズの導入評価が多くの企業で行われていると説明した。
Intelによれば、Intelの東京オフィスにGaudi 2の検証用の施設が用意されているほか、今後は開発者向けのクラウド経由でGaudi 3が利用できるようになるなど、潜在的な顧客が評価できるような機会を増やしていきたいと説明した。
町田氏はそうしたGaudi 3を導入していくパートナーとしてエフサステクノロジーズ株式会社、日本アイ・ビー・エム株式会社の2社を紹介。両社からゲストとして、エフサステクノロジーズ株式会社 取締役常務 坂井賢一氏、日本アイ・ビー・エム株式会社 理事 テクノロジー事業本部 クラウド・プラットフォーム事業部長 佐藤隆子氏が登壇し、それぞれのGaudi 3の採用計画などに関して説明した。
エフサステクノロジーズ 坂井氏は、同社が採用を前提にしてGaudi 3の評価をしていくという意向表明を行った。坂井氏は「エフエステクノロジーズは、IntelとはPCサーバーのPRIMERGY、Itaniumを搭載した基幹サーバーのPRIMEQUESTなど、さまざまな製品を一緒に取り組んできた。その関係をAIの時代にも拡張していきたいと考えている」と述べ、Gaudi 3の評価を今後開始し、将来的にエフサステクノロジーズのAI向け製品群の中にGaudi 3ベースの製品を加えていきたい意向であることを明らかにした。
日本アイ・ビー・エムの佐藤氏は「IBMは、グローバルに展開しているIBM CloudにGaudi 3を採用することを、グローバルなクラウド・サービス・プロバイダーとして最初に表明した。今後Virtual Servers、watsonx、Kubernetes Serviceなどを支える演算環境として、そして将来的にはDeployable Architectureで、ボタン1つでGaudi 3を利用できるようにしていきたい」と述べ、IBMが同社のクラウドサービスであるIBM Cloudの各種サービスの演算基盤としてGaudi 3を導入し、将来はユーザーが簡単に導入を行えるDeployable Architecture経由でGaudi 3を使えるようにしていく計画だと説明した。