仮想化道場

IDF13 San Franciscoに見る、2014年のサーバー向けプロセッサ (データセンター全体を再デザイン)

データセンター全体を再デザイン

 IDFでは、単にサーバー向けのプロセッサを発表するだけでなく、今後のデータセンター全体を再デザインする方向へと向かっている。これは、プロセッサの性能が年々、倍々にアップしていくということがなくなったためだ。

 また、高密度サーバーなど新しいサーバーが出てきたり、ネットワークのソフトウェア化といえるSDN(Software Defined Networking)、ストレージのソフトウェア化といえるSDS(Software Defined Storage)などのコンセプトが出てきたことも、もちろん大きな要因だ。

 こういったコンセプトを前提に、IntelではSDDC(Software Defined Data Center)というコンセプトを打ち出した。

 サーバーがプロセッサとメモリのComputeになり、ネットワークが高性能なプロセッサとスイッチを組み合わせたプログラマブルなネットワークになり、ストレージも高性能なプロセッサを使ってフラッシュメモリ、高性能HDD、低速大容量のコールドストレージなど、階層化したメディアを自動的に効率よく利用できるシステムとなる。

 そしてデータセンターにおいては、このようなシステムがシャーシ単位にスケールアウトすることになる。

 ラックに収められるシャーシ内部には、光ファイバベースのバックプレーンなどが用意され、必要なモジュールを差し込むことで、Atomベースの高密度サーバー、Xeonベースのハイパフォーマンスサーバーなどが構成できるようになるだろう。

 もちろん、同じシャーシをネットワークやストレージに利用していくことになるだろうし、シャーシ間の接続やラック間の接続は、広帯域の光ファイバでケーブリングすることになるだろう。

 SDDCにおいては、ユーザーの目的に合わせて、Atom、Xeonなどのプロセッサを選択して、ネットワーク構成、ストレージ構成をソフトウェアブルに再構成できるようになる。ユーザーがソフトウェアにより、目的に合わせて、データセンター自体をダイナミックに再構成できる、柔らかいプラットフォームへと変えていくのだ。

Intelが提唱しているRack Scale Infrastructureでは、最終目的としてはCompute、メモリ、ストレージなどをプール化して自由に構成する
現在のRack Scale Infrastructureは、Compute、ネットワーク、ストレージを光ファイバで接続して、ケーブルの配線をシンプルにする
Rack Scale Infrastructureのサーバーは、同一シャーシにプロセッサモジュールを収納する。また、同じシャーシをネットワークやストレージユニットとして利用する。
ストレージは、HDDだけでなく、SSDやPCI Express接続のフラッシュメモリなどで構成
MicroServerは、プロセッサモジュールに複数のプロセッサを搭載して、超高密度サーバーを可能にする

 現在は仮想化技術により、プロセッサやメモリは、仮想マシンのリクエストを受けて動的に割り当てられている。これをネットワークやストレージまで広げていき、今までは数カ月かかっていたデータセンターの再構成を、SDDC化により、1日で終わらせることが可能になるだろう。

 このような、柔らかいデータセンターを構築できるベースを、Intelは提供しようと考えている。柔らかなデータセンターを実現するためには、プロセッサだけでなく、ネットワークやストレージも非常に重要になってくるので、トータルでのビジョンを提供しているわけだ。

今後サーバーは、用途に向けて、3種類ほどのカテゴリに分かれていくだろう。Atom C2000やBoradwellを使った高密度サーバー、メインストリームのXeon E5を使ったサーバー、Xeon-Phiなどをコ・プロセッサとして搭載したHPC向けのサーバーなどに分かれていきそうだ
高密度サーバーで重要になるのは、プロセッサモジュールを接続するファブリックだ。Intelでは、専用のファブリックを開発するのではなく、2.5GbEでプロセッサをスイッチに接続する方式を進めている。スイッチには、SDNを使ってフレキシブルに構成が変更できる
Intelが提案しているSDN向けのスイッチは、X86プロセッサ上にWind RiverのLinux OSを搭載し、OpenFlowを搭載している
シャーシの接続には、Intelが開発したシリコンフォトニクスを利用。光ファイバケーブルも低価格で、簡単に接続できるコネクタ「MXC」を提唱している。MXCでは、最大1.6Tbpsのスピードを実現する
Exaスケールのサーバーを実現するには、Tbpsのネットワークが必須になる
プロセッサではメモリの帯域が問題となる。このため、プロセッサにメモリを積み重ねるスタックドメモリを採用しようとしている
プロセッサをモジュール化して、すべてのモジュールをファイバで接続することになる
プロセッサあたり2TBの内部メモリが必要になる。CPUコアは8000コア。最大パフォーマンスは512テラフロップスに達する。

山本 雅史