仮想化時代の大容量メモリ搭載技術「FlexMem Bridge」が効果的な理由

デル「PowerEdge R810」の適用領域を聞く


 前回は、4ソケットサーバー「Dell PowerEdge R810」(以下、R810)の機能に関して解説してきた。今回は、R810がどういったユーザーにマッチするのかを、デル株式会社 ラージ・エンタープライズ・マーケティング サーバ・ブランド・マネージャの一志達也氏に伺った。

FlexMem Bridgeが仮想化を加速する

デル ラージ・エンタープライズ・マーケティング サーバ・ブランド・マネージャの一志達也氏

 「R810でもっとも注目されているのが、大量にメモリを消費する仮想化です。仮想化は、今注目されているクラウドの基盤となるテクノロジーですから」と、一志氏は語る。

 実際、仮想化を導入している企業において、問題になるのが、CPUパフォーマンスとメモリ容量だ。ただし、CPUがマルチコア化するのに伴い、仮想化による既存環境の集約用途においては、それほどCPUを増やさなくても、十分なCPUパフォーマンスが得られる場合が多くなっている。

 Xeon 7500番台は最大8コアを持っているが、仮想化では、必ずしも、すべてのCPUがずっと高い負荷のままという用途ばかりではなく、仮想マシンによっては、ほとんどの時間、低負荷で運用されていることもある。こういった場合なら、大容量メモリを搭載していれば、1台のサーバーに多数の仮想マシンを集約することが可能になる。

Dell PowerEdge R810
FlexMem Bridgeにより余っているメモリソケットが活用できる

 しかし、大きな問題となってきたのが、メモリ容量だ。インテルなどのCPUベンダーは、CPUのスペックとして、大容量のメモリをサポートできるとしている。しかし、サーバーベンダーが設計を行うと、サーバーの大きさ、配線の難しさなど、いろいろな設計上の問題にぶつかる。最新の「インテル Xeon プロセッサー 7500番台」(以下、Xeon 7500番台)などにおいても、2Uサイズやブレードサーバーなど、大きさの制約があるサーバーでは、1CPUあたり4本のメモリインターフェイスをすべて使い切ったサーバー設計というのは難しい。実際、R810でも、標準では、1CPUあたり2本のメモリインターフェイスを採用している(1CPUあたりのメモリソケットは8ソケット)。

 仮想環境上で動作する仮想マシンは、ある程度メモリの管理などを効率化しているため、仮想マシンが使用するメモリが、そのまま物理メモリを占有しているわけではない。ハイパーバイザーにおけるメモリのオーバーコミットメント機能などを使えば、サーバーに16GBしかメモリがなくても、2GBのメモリを使用する仮想マシンを8つ以上動かすことができる。

 しかし、物理的にメモリが少なくなると、HDDなどにスワップを行うことになるため、仮想マシンの動作自体が遅くなってしまう。こういった意味でも、仮想化においては、メモリを多めに用意した方が都合がいい。

 「FlexMem Bridgeを使うことで、CPU数は少なくなりますが、1CPUあたりが使用できるメモリ容量が2倍になります。仮想化においては、CPUのパフォーマンスには余裕がある場合が多いので、CPU数よりも、メモリ容量が増えるということは大きなメリットになるでしょう」(一志氏)。

 FlexMem Bridgeを使えば、Xeon 7500番台が持っている4本のメモリインターフェイスをすべて利用することができる。これにより、1CPUあたり16メモリスロットを実現しているのだ。16GBメモリモジュールを使用すれば256GBが搭載できるし、プライスパフォーマンスが高い低容量のメモリモジュールを使っても、4GBメモリなら1CPUあたり合計64GB、2GBメモリでも合計32GBの容量が確保できる。

 これなら、1CPUあたり10つの仮想マシンを起動しても、仮想マシンのメインメモリとして、16GBメモリなら約25GB、4GBメモリなら約6GB、2GBメモリなら約3GBが使用できる。

FlexMem Bridgeは、R810の余っているCPUソケットに挿して利用する

 大容量のメモリが搭載できるのならば、こうした仮想化によるサーバー統合で、企業で導入されている多数のサーバーを1台に集約して、コストを低減させることが可能になるのだ。「FlexMem Bridgeは、トリッキーなテクノロジーではなく、多くのユーザーにとって、必要とされて開発したモノです。また、Xeon 7500番台のメモリインターフェイスを延長するというアーキテクチャからも、長期間運用しても、トラブルが起こらないテクノロジーといえます」(一志氏)。

 実際、FlexMem Bridgeのテクノロジーを見ても、余っているCPUのメモリソケットにブリッジするというモノだ。CPUとメモリインターフェイスにデル独自の技術を採用しているわけではない。

 従ってこのアーキテクチャは、インテルがXeon 7500番台と同じようなメモリインターフェイスなどを使用する限り、将来的にそのまま利用できることになる。実際、Xeon 7500番台の次世代(Westmere-EX)や将来のSandy Bridge世代でも、そのまま使用できるのではないか。

 また、FlexMem Bridgeは素直なテクノロジーとなっているため、メモリアクセスのパフォーマンスにもオーバーヘッドはないという。こういったことは、デルのオープン性というコンセプトからきているのだろう。

ハイパーバイザーを内蔵しやすいように、内蔵のデュアルSDモジュールが用意されている。これを使えば、すぐにでも、ハイパーバイザーを使って仮想化できる。デュアル化しているため、ハイパーバイザーに障害が起きても、もう一方のSDカードに切り替えられる無償で提供される内蔵管理ツール。多数のサーバーを簡単に管理できる管理ツールがそろっている

仮想化以外でも大容量のメモリが生きる

 では、仮想化以外の用途に対してはどうなのだろうか。

 「大量のメモリを搭載できるR810は、仮想化を利用するクラウド以外にも、メモリ上にデータを展開してパフォーマンスをアップするハイパフォーマンスコンピューティング(HPC)、ビジネスインテリジェンス(BI)などを行うデータウェアハウス(DWH)などの用途にもぴったりでしょう」(一志氏)。

 標準的なインテルアーキテクチャのサーバーで、これだけのメモリが搭載できる製品はほとんどない。従って、仮想化に適用する場合と同様に、R810は、今までメモリが不足していた用途にはぴったりのサーバーといえる。

 確かに、1つのCPUにあたりの搭載メモリ量を増やすためには、2ソケットをFlexMem Bridgeに使用するので、4ソケットサーバーであっても、CPU数は少なくなる。

 しかし、仮想化やHPCなどでの利用を見ていると、CPUの数が多くなっても、リニアにパフォーマンスがアップしないことも多いようだ。またETLなど、大容量のメモリがあった方が、パフォーマンス向上が期待できる作業もある。

 そういった意味でも、CPUコア数が増えてきている現在のマルチコアCPUにおいては、1つのCPUが利用できるメモリを増やす方が、ユーザーの価値に直結することが多いといえるのではないだろうか。

CPUの高速化とメモリの大容量化でライセンスコストの低減を実現

 またR810では、マルチコアCPUと大容量メモリにより、ソフトウェアのライセンスコストを低く抑えることが可能になっているという。

 多くのソフトウェアでは、使っているCPUソケットあたり1つのプロセッサライセンスが必要、というライセンスポリシーを採用するようになった。例えば、SQL Serverは、物理CPU数に応じてライセンスコストが発生する。

 このため、CPU数が増えれば増えるほど、ライセンスコストがアップしていくのだが、コア数が増えた新しいCPUを導入し、少ないCPU数で利用する場合は、逆にライセンスコストが低く抑えられる、というメリットがある。

 例えば、デュアルコアCPUを4CPU使用する古いサーバーと、8コアのCPUを1つ使用したサーバーでは、コア数は同じなのだが、ソフトウェアのライセンス料としては1/4になる(後者が安い)。そして、多くの場合、ソフトウェアのライセンスコストは、1回だけでなく、保守料など継続してコストがかかる。

 こういった点を考えると、パワフルな最新サーバーを導入して、CPU数を減らし、ソフトウェアのライセンスコストを下げるという考え方ができる。実際、サーバーのコストは、ハードウェアのオープン化により、年々安くなっている。下手とすると、古いサーバーで運用しているソフトウェアの保守料数年分で、新しいサーバーが購入できるかもしれない。

 「コストを重視するときには、サーバーのハードウェアコストだけでなく、ソフトウェアを含めたシステム全体のコストを最適化する必要があります。R810は、Xeon 7500番台を採用することで、2ソケットのCPUでも全体で最大16コアを搭載できます。これは、昔のサーバーなら、クラスターを組むなど、信じられないほどのコストをかけて構築したサーバー群と同じパフォーマンスが、2Uサイズ1台のサーバーで実現しています。R810にデータベースなどの移行を行えば、ソフトウェアのライセンスコストも大きく引き下げることができるでしょう」(一志氏)。

デルのコンセプトであるEfficient Enterprise Ecosystem(E3)は、柔軟でダイナミックなIT環境を実現する
E3というコンセプトは、4つのフレームワークで構成されている
日本企業のIT投資は、世界標準から考えれば非効率だという
デル社内におけるIT投資に関する基本コンセプト。ITの総予算を管理コストから、新しい戦略投資へとシフトさせ、大きな効果を上げた

 多くの日本企業では、サーバーを新しく導入するというと、新たなITシステムのソフトウェア開発や周辺機器の再購入などが同時に行われるため、膨大な初期コストがかかっていた。このため、景気に左右されて、導入を見送ることが多かった。

 しかし、きちんとしたITシステムの設計を行っていれば、圧倒的なパフォーマンスを持つサーバーを導入して、サーバーの台数を一気に減らすことも可能だ。これができれば、ソフトウェアのライセンスコストを削減することもできる。また、余ったライセンスは、新しいシステムに使用することもできるだろう。結果、ITにかける総予算は変わらず、より新しいITシステムを社内に提供することができる。

 こういった、攻めのITといった考え方が日本企業には少ない。すでに、サーバーは一般のパソコンなどと変わらないモノだ。メインフレームやUNIXサーバーのように、10カ年計画で導入するのではなく、その時々で必要なモノをコストとパフォーマンスというバランスにあわせて、どんどん入れ替えていくべきだろう。

 逆に言えば、そういったハードウェアの変更にも簡単に対応できるように、システムを設計しておく必要がある。サーバーだけでなく、ストレージやバックアップ、アプリケーション自体もハードウェアが変わっても、きちんと動作するように考えておく必要がある。こういったフレキシブルなITシステムを構築すれば、サーバーの導入にあわせて、ソフトウェアを全面的に刷新するのではなく、最新のサーバー上で旧来のアプリケーションを動かし、社内のニーズやビジネス環境の変化にあわせて、アプリケーションを開発していくことが可能になる。

 こうなれば、システム部も一時期に、膨大なコストをかけて、システムの総入れ替えを行わなくてもいい。複数年にわたって、計画的なシステム開発が行える。

 日本の多くの企業では、メインフレームやUNIXサーバーなどの導入経験から、ITシステムの入れ替えには、膨大なコストがかかると考えている。しかし、R810などのハイパフォーマンスなx86アーキテクチャのサーバーなら、ユーザーにぴったりな規模のサーバーを、必要なときに導入することが可能だ。

 日本企業の多くは、ハードウェアの導入コストばかりに目を奪われ、ソフトウェアの初期コストや年間保守料などに注目していない。今後は、サーバーを変えれば、ライセンスコストが劇的に下がるというコスト低減の方法があることを知るべきだろう。こういったコスト低減ができるようになったのは、R810のようにオープンスタンダードなx86アーキテクチャのサーバーが、低コストで提供されるようになったからだ。

 なお、一志氏によれば、このようなシステムのオープン化の際に、ユーザーに非常に受けがいい機能が、メモリのスペアリングとミラーリングなのだという。

 スペアリングは、スペアとしてメモリDIMMを余らせておき、エラーが修正可能な値を超えると、スペアのメモリに自動でデータを修正してコピーし、システムとしてエラーを起こさず動作する仕組み。一方のメモリミラーリング機能は、メモリを2対の組み合わせにして、常に同じデータを書き込んでおき、メインで使用している方にエラーが起こると、瞬時にバックアップのメモリに切り替えて動作を続ける、という機能だ。

 UNIXサーバーやメインフレームを利用してきたユーザーは、何につけても信頼性を重視することが多い。基幹系のデータベースとして使われているシステムをオープン化する、などという場合はなおさらだろう。そうしたユーザーにこの機能を紹介すると、ぜひ使いたいとの反応が返ってくるのだが、さらに、BIOS設定だけで、無償でできると応えると、非常に驚かれるのだそうだ。

 こうしたことが周知されれば、Xeon 7500番台とそれを搭載したサーバーによる、レガシーシステムのオープン化がさらに進むかもしない、と感じさせる1コマだった。

 R810は、前回紹介したように、Xeon 7500番台の機能を生かし、高機能・高信頼なサーバーに仕上がっているが、独自仕様でチップセットを拡張するなどの開発はされておらず、低コストに抑えられている点が特徴の1つ。このようなコストパフォーマンスの高いサーバーを用いて、自社のコスト適正化を考えてみるのも、いい機会なのではないか。

関連情報