クラウド&データセンター完全ガイド:Vendor Focus
新CPU「Xeon E7 v2」のインパクトとインテルのデータセンター最新戦略
2014年7月14日 00:00
インテルは2014年2月19日、データセンター/大規模サーバー向けx86プロセッサの新版「インテル Xeon プロセッサー E7 v2」を正式発表した。本稿では、同CPUがユーザーにもたらすインパクトと、インテルが描く、これからのデータセンターに向けた最新戦略に迫る。 text:塩田紳二
ハイエンドのXeon E7がIvy Bridgeベースに
インテルのサーバー向けプロセッサには、Core iシリーズと同じマイクロアーキテクチャを採用するXeon EシリーズやIA-64アーキテクチャのItanium系、低消費電力のAtom系や多数のプロセッサを統合したXeon Phi系などがある。このうちデータセンターなどサーバー向けの製品がXeon Eシリーズだ。現在では、その構成によりE3/E5/E7の3系列があり、最上位モデルのE7は、シングルスレッド性能も要求されるデータセンターやHPC(High Performance Computing)などに利用される(図1)。
インテルは、デスクトップPCやモバイルデバイス向けのプロセッサでは、マイクロアーキテクチャの更新と製造プロセスの更新を隔年で交互に行う「Tick-Tock」戦略を導入している。だが、サーバー向けのプロセッサに関しては、タイミングをずらすかたちで製品化が行われている。理由は、一般向けのプロセッサと違って高度なRAS(Reliability, Availability, Serviceability:信頼性・可用性・保守性)機能や大きなキャッシュメモリ、さらに多数のコアの統合といった違いがあるうえ、さらに厳密な「バリデーション」(システム検証)が必要になるためだ。
Xeon E系列では、すでにE3がデスクトップ/モバイルと同等のHaswellマイクロアーキテクチャになっているものの、E5は、2013年9月にIvy Bridgeマイクロアーキテクチャを採用したXeon E5 v2が登場したばかりだ。
そして2014年2月19日、Xeon E7にもIvy Bridgeを採用したXeon E7 v2が発表された(写真1)。「Ivytown」のコード名で開発されていた同プロセッサは、Ivy Bridgeをベースにしているものの、サーバー向けにコア数を増加したために内部の構造が改良されている。
Xeon E7 v2の特徴とスペック
Xeon E7 v2がどれほどの性能を備えているのかを確認してみよう。同プロセッサは22nm(ナノメートル)プロセスで製造されており(E7では32nmプロセス)、クロック周波数の向上や低消費電力化を実現している。1つのプロセッサパッケージに最大15個のコアを搭載し、E7との性能比で最大2倍を達成している。さらに、特殊なチップを開発せずに最大8ソケット(インテルでは、プロセッサパッケージの数をマザーボード上のプロセッサソケットの数で表している)のマルチプロセッサ構成を可能にしている。これにより、メモリ容量は最大3倍、I/Oの帯域幅は4倍となっている。特にプロセッサコア数が増え、ラストレベルキャッシュの容量が向上したのはプロセスの進化による部分もある(表1)。
Xeon E7 v2では、最大30個のプロセッサを接続するため、3つのリングバスの途中に接続を切り替える「スイッチ」を2カ所設け、プロセッサを5つごとに3つのグループに分け、各グループが他の2つのグループと2つのリングバスで接続する構成を可能にしている。イメージ的には、2カ所のポイントで線路を切り替えることができる3つの環状線という感じだ。リングバスは片方向なので、最も遠いノード同士の接続に時間がかかってしまうが、スイッチにより、半周分の接続先を変えることができるため、結果的に3つのリングバスの方向を切り替えたのと同じような結果になる。
また、このリングバスは、3つのQPIインタフェース部とI/O部(32レーンのPCI Express Gen3を含む)、そして2つのホームエージェント部と接続している(図2)。QPIは主にプロセッサ間接続に利用するもので、最大で8個のプロセッサを、QPIを介して接続可能になる。また、ホームエージェント部にはメモリコントローラーがあり、1プロセッサパッケージには、最大24個のDIMMを接続可能だ。64GBのDDR3-1600 DIMMに対応し、1.5TBのメモリが1つのプロセッサパッケージに接続できるようになっている。
最近では、巨大データの処理をオンメモリで行うことで処理時間を短縮する手法が使われるが、このとき重要なのが最大メモリ搭載量だ。後述するが、Xeon E7 v2は最大8プロセッサパッケージをQPIのみで接続できるため、1システムに最大12TBのメモリを搭載できることになる。
QPIによるプロセッサパッケージ間の接続は、2/4/8ソケットと柔軟に行える(図3)。また、OEMメーカー(サーバーセットの製造メーカー)が独自のプロセッサ間接続デバイスを開発することで、8ソケットを超えるプロセッサの接続も可能だ。
このとき、各ソケットにメモリが接続するが、OSなどのソフトウェア側からは、連続した1つのメモリ空間にそれぞれのメモリが配置されているように見える。このとき、ソフトウェアを実行中のプロセッサに直接つながっているメモリと他のソケットにあるメモリではアクセス時間などに差が出てしまう。こうした構成をNUMA(Non Uniform Memory Access)と呼ぶが、現在では、多くのプロセッサがこうした構造を理解して、メモリ割り当てやタスク切り替えを行えるようになっている。
メモリ容量は、Xeon E5系列とは差異化が図られている。もちろんコア数といった瞬間的な処理性能の違いもあるが、E7 v2では最大12TBという大量のメモリを必要とする用途にも対応できることが最大のポイントだ。
Xeonの特徴であるRAS機能をさらに強化
プロセッサの性能が向上し、大規模システムに多く採用されることで、プロセッサには高い信頼性が要求されるようになる。大規模システムの場合、プロセッサをはじめ構成要素(部品)の点数が多く、例え1つ1つの故障率が低くともシステム全体での故障率が問われることになる。そのうえ対象ユーザーの数も多く、その障害や停止が及ぼす影響が大きいため、サービスを提供する企業・組織は、より高い信頼性を持つシステムを構築する必要に迫られている。
そうしたことから、Xeonシリーズではデスクトップ/モバイル向けにはないRAS機能が搭載されている(図4)。Xeon E7 v2には、E7のRAS機能に加えて、①エンハンストMCA Gen 1、②MCAリカバリー・エグゼキューション・パス、③MCA I/O、④PCIeライブ・エラー・リカバリーの4機能が追加されている。
MCAはMachine Check Architectureの略で、システムの健全性を保つための仕組みだ。システム内で発生したエラーを、ファームウェアを使って記録・通知するなどの処理を行う。基本的には、OSやアプリケーションがエラーを検出する前に動作する。その後、エラーをOSなどに通知するが、①では通知のための情報が強化されていて、例えば、メモリのエラーでは、発生した物理メモリアドレスだけでなく、発生したDIMMメモリを特定する情報も提供できるようになった。
②は、エラーの発生でメモリなどのデータの訂正が不可能な場合のやり直しを可能にするものだ。エラーが訂正できるなら、命令の再実行などでリカバリが可能だが、そうでない場合、アプリケーション側はエラー位置などから適切な場所に戻って再度実行を試みるか、もしくは致命的なエラーとして実行を停止する必要がある。そこで、こうしたエラーへの対応が可能なアプリケーションに情報を提供してエラー対応を行わせるのがこの機能だ。
③と④は、I/O処理でのエラーからの回復のための機能だ。④は特にPCI Expressバスでのエラーに対応するものである。
デジタルサービスエコノミー時代のデータセンター最新戦略
スマートフォンやタブレットといったモバイルデバイスの普及に代表される今日のコンピューティングへのニーズがクラウドサービスを拡大させていく。それらのサービスを支えるデータセンターの役割もより大きくなり、規模や処理能力を拡大する方向に向かっている――こうした動向をインテルは、「デジタルサービスエコノミー」の時代と呼んで、対応のための各種テクノロジーを提供している。
多様な処理への対応
デジタルサービスエコノミーに向けたインテルの施策の1つは、多様な処理に対応するためのアプローチの提供だ。ネットワークへのアクセス状況変化の激しいモバイルデバイスの場合、その接続先であるクラウドサービスもそうした変化に対応していかざるをえず、利用者も急激に増えていくために、処理性能を短時間で向上させるようなIT基盤を提供する必要がある。また、あるビジネスサービスが短時間に予想を超えて急成長する可能性もあるだろう。
最近では、ビッグデータへの分析といった新しいタイプのアプリケーションを高い処理性能で実行可能なハードウェアアーキテクチャにも対応する必要がある。例えば、かつてなら大量のデータは外部ストレージに格納し、データベースに登録したうえで処理を行っていたが、最近では処理時間を大幅に短縮して、その結果を次のアクションに即座に反映させるようなニーズが出てきているため、大量のデータをメモリに置いたままで処理する手法が使われ始めている。処理によっては、あまり性能の高くないシステムを多数並列に動作させて処理できるものもあるが、逆に、処理負荷が高く、複数の対象との関係も考慮して処理していくような作業では、高い性能で多数のスレッドを並列に動作させる必要が出てくる。
こうした、ビジネスコンピューティングの変化に富んださまざまな状況に対応できるシステムを構築するための“部品”として、インテルでは、XeonやAtom、Xeon Phiといった多様なプロセッサを提供している。
複雑化したデータセンターの効率的な運用管理
もう1つ、インテルが注力するのは、複雑化が進むデータセンターやサーバー群を効率よく運営・運用するためのアプローチだ。具体的には「インテル データセンターマネージャー(DCM)」が提供されている(図5)。
DCMは、標準的なインテルプラットフォームのサーバーシステムの設計に基づき、各種の管理標準を取り込んで利用できるようにする統合管理ソフトウェアである。複数のソフトウェア/APIで構成されるDCMは、さまざまなベンダーのハードウェアをサポートし、ベンダーが自社製の管理ツールに組み込んで提供することも可能になっている。
DCMの中核をなすのは、サーバーの電力消費を管理してデータセンター全体の電力効率を最適化するための「Energy Director」と、多数のサーバーの管理コンソールを集約して一元管理するための「KVM Gateway」の両ソフトウェアだ。
とりわけ後者は、データセンターの運用管理に携わる担当者にとってありがたいツールである。KVMはKeyboard Video Mouseの略でハードウェア管理用コンソールを指す。一般にサーバーシステムは管理用のコンソールを持つが、データセンターなどの多数のサーバーを持つところでは、リモート接続でそれぞれを管理するようにするのが通常だ。KVM Gatewayは、各社のコンソールの制御をリモートから行うためのゲートウェイ機能を提供する。
(データセンター完全ガイド2014年春号)