特別企画

ハードウェアオフロード技術を活用したWindows Server 2012 R2の新しい仮想化ソリューション【前編】

Hyper-Vのストレージアクセスを劇的に高速化するSMB 3.0とRDMA技術

 エンタープライズITの世界では、仮想化技術や高性能データベース、Apache Hadoopのような分散システム技術の台頭により、ネットワークやストレージなどのI/Oボトルネックが大きな課題となっている。近年では、こうしたI/Oボトルネックを解消するソリューションとして、InfiniBandや10Gbit/40Gbit Ethernetのような高速I/Oソリューション、フラッシュメモリを活用した高性能ストレージなどが続々と登場している。

 しかし、インターコネクトやストレージの高速化によってI/Oボトルネックを解消しようとすると、今度はこれらのI/Oを処理している物理サーバー内のホストCPUが新たなボトルネックとなり、結果的にパフォーマンスを発揮しきれないケースが出てくる。

 そこで重要になってくるのが、最新のNIC(ネットワークアダプタ)に搭載されているハードウェアオフロード機能である。ハードウェアオフロードに対応したNICをサーバーに装着することで、これまでホストCPUが担っていた処理をNIC内のハードウェアへと移すことができ、I/Oパフォーマンスの向上とホストCPUの負荷軽減につなげられる。

 今回は、仮想化基盤での採用例が近年急速に増えているMicrosoftのHyper-Vに着目し、とりわけWindows Server 2012 R2を取り巻くハードウェアオフロード技術の動向を追っていく。ここでは、日本マイクロソフト株式会社、メラノックス テクノロジーズ ジャパン株式会社、そしてハードウェアオフロード技術を取り入れているエンドユーザーの方に取材協力を得た。

 前編では、SMB Direct(SMB over RDMA)を中心に、ストレージアクセスの高速化につながるハードウェアオフロード技術を紹介していく。

サーバーとストレージ間を接続するインターコネクトの高速化がますます重要に

 多くの仮想マシンが集約されたサーバー仮想化基盤やデスクトップ仮想化基盤、高性能データベースなどでは、これらを支える物理サーバーの出入り口として極めて高速なインターコネクトが必要とされている。多くの物理サーバーは、ネットワークやストレージを接続するためのI/Oポートを備えているが、パスの冗長化や帯域幅の確保を目的として、複数のI/Oポートをグループ化して運用するケースも多い。

 しかし、このようなI/Oポート構成でシステム規模を拡張していくと、ケーブリングが複雑になり、システム全体の複雑さがさらに増す。この結果、トラブルが発生しやすくなったり、パフォーマンスの最適化に時間がかかったりするなど、運用負荷の増大につながる。

 こうした複雑なケーブリングの課題を解消するのが、高速インターコネクトを活用したI/O統合である。I/O統合は、極めて高速なインターコネクト上にLAN、クラスタノード間の通信、ストレージトラフィックなどを同時に転送することで、物理サーバーにひも付くケーブル数を大幅に削減し、システム全体の構成を簡素化する。

 近年では、このようなI/O統合を後押しするソリューションとして、広帯域と低レイテンシを強みとしたInfiniBandベースのソリューションや、FCoE(Fibre Channel over Ethernet)、IEEE 802.1 Data Center Bridging(DCB)に代表される、ロスレスEthernetを活用したソリューションなどが選択可能だ。

 しかし、多くのエンタープライズIT環境において、ネットワークとストレージ双方のI/O統合を前提とした取り組みはかなりハードルが高い。まずは、最も投資対効果に優れたストレージ接続に高速インターコネクトを導入するところからスタートし、将来的なステップとしてI/O統合やネットワーク仮想化へと歩みを進めていく流れが望ましい。

InfiniBandを活用したI/O統合の例(出典:メラノックス テクノロジーズ ジャパン株式会社、以下同様)。物理サーバーでは、LAN、クラスタノード間の通信、ストレージ接続などのために、さまざまな種類のケーブルを必要とする。また、パスの冗長化や広帯域化を目的として、複数のケーブルをグループ化して運用するケースも多い。このようなケーブリング環境に代わり、InfiniBandのような「太い土管」でさまざまなトラフィックを同時にやり取りすれば、ケーブリングを含むシステム全体の構成を大きく簡素化できる

(伊勢 雅英)