特別企画

ハードウェアオフロード技術を活用したWindows Server 2012 R2の新しい仮想化ソリューション【前編】

Hyper-Vのストレージアクセスを劇的に高速化するSMB 3.0とRDMA技術

RDMA転送によってストレージアクセスを大幅に高速化するSMB Direct

 エンタープライズITの世界では、HPCやテクニカルコンピューティングのようなレベルで技術部隊を用意できるとは限らない。このため、InfiniBandや10GbE/40GbEのような高速インターコネクトが、単にRDMA技術をサポートしているというだけのレベルではまだ不十分だ。

 やはり、多くのユーザーが特別な知識なしにRDMA技術を利用できることが望ましく、それを可能にした事実上最初のソリューションが、Windows Server 2012でサポートされたSMB Direct(Server Message Block Direct)である。

 Windows Server 2012世代は、クラスタ環境への対応やパフォーマンス向上など、数多くの改良を施したファイル共有プロトコル「SMB 3.0」をサポートしたが、このSMB 3.0に含まれる特徴のひとつがSMB Directだ。SMB Directは、InfiniBandもしくはRoCEによるインターコネクトを通じてSMBのRDMA転送を可能にする。

 高添氏は、SMB Directのメリットを「SMB Directは、Windows自身が標準でサポートし、RDMA技術をサポートするインターコネクトさえ組み合わせれば、Windows Server 2012に基づくサーバー環境ですぐに利用可能です。そして、SMB Directによって接続されるストレージシステムは、ダイレクトアタッチのブロックストレージではなく、通常のファイルサーバーとして扱えるところも大きなメリットといえます。ファイルベースのSMB Directなら、ハイパーバイザ(Hyper-V)を含めたサーバー群とストレージシステム間が疎結合の形で接続でき、システムの設計や運用が極めて容易になります」と語る。

Hyper-V環境でインターコネクト性能を引き出すMicrosoftの取り組み

 SMB Directを活用すれば、サーバーとストレージシステム間の通信性能が飛躍的に高まる。これにより、I/Oボトルネックを解消するとともに、ホストCPUの負荷低減にもつなげられる。Windows Server 2012 R2では、SMB Directを活用したライブマイグレーションも新たにサポートされたことから、とりわけHyper-Vに基づく仮想環境では、仮想マシンのライブマイグレーション時間が大きく短縮される。

 Hyper-Vは、OS以外の高額なライセンス費用が不要であることに加え、SMB DirectによるI/Oボトルネックの解消を新たな強みとしながら、今後は大規模のクラウドインフラ(その先駆的存在がMicrosoft Azureだが)などでも急速に採用が進んでいきそうだ。

 高添氏は、SMB Directに対する期待を「Microsoftが考えているデータセンターのアーキテクチャは、ストレージとハイパーバイザをきちんと分離するところにあります。当然、両者を分離すれば、これらを結ぶインターコネクトの高速化が不可欠となり、そのようなニーズに向けて開発されたのがSMB 3.0であり、そしてSMB Directです。昔のSMB(CIFS)は、転送性能が求められるところには使われませんでしたが、SMB Directなら高速転送のニーズにもしっかりと応えられます。SMB Directによって、仮想化基盤のアーキテクチャを大きく変えられる可能性が高く、個人的にはとても期待しているテクノロジのひとつです」と述べている。

 Microsoftは、Windows環境で高速インターコネクトの能力を発揮させるため、SMB Direct以外にもさまざまな強化を図っている。そのひとつがRSS(Receive-Side Scaling)である。RSSは、カーネルモードのTCP受信トラフィック処理をサーバー上のCPUコア群で負荷分散させるものだ。Windows Server 2012ではRSSがさらに強化され、64個を超えるCPUコアに対応できるようになった。これにより、とりわけコア数の多いCPUを搭載した最新サーバーでは、通信性能をさらに引き出せる余地が生まれる。

 また、Windows Server 2012 R2のHyper-Vでは、仮想マシンが利用する仮想NICにもRSS機能(Virtual RSS)を実装し、仮想環境でもRSSのメリットを生かせる。そのほか、Dynamic VMQ(Dynamic Virtual Machine Queue)もサポートされ、物理NIC上のVMQを処理する際にCPUコアを動的に割り当てられるようになった。

 高添氏は、こうした数々の新機能について「これまでは、当社自身のクラウドサービスを進化させるために多くの機能を開発し、Windows Server 2012 R2には大小さまざまな通信技術やストレージ関連機能をOSの中に取り込んできました。ストレージ専用機や専用ネットワーク機器と比べれば改善の余地はまだ残されていますが、多種多様な新技術の中にはすぐに役立つ機能も多く含まれています。これからは、お客さまにこうした魅力的な機能を最大限に活用していただくためのフェーズへと移行します」と説明する。

Windows Server 2012 R2におけるライブマイグレーション時間の比較グラフ。TCP/IPによるデータ転送では60秒以上かかるが、データ圧縮機能を使うと約15秒に短縮されている。ただし、データ圧縮機能が動作することで、一時的にCPU負荷が上昇する傾向にある。その一方で、SMB Directを利用する場合、圧倒的なスループットを生かせることから、データ圧縮をすることなく(ホストCPUも消費することなく)RDMA転送が実行され、ライブマイグレーション時間が10秒以下に短縮されている

(伊勢 雅英)