特別企画

ハードウェアオフロード技術を活用したWindows Server 2012 R2の新しい仮想化ソリューション【前編】

Hyper-Vのストレージアクセスを劇的に高速化するSMB 3.0とRDMA技術

広帯域・低レイテンシの通信を低価格で実現するInfiniBandという選択肢

 現在、高性能データベースや仮想デスクトップ基盤などに対応するソリューションを見ると、たいていはサーバーとストレージ間のデータ通信量を抑える工夫が取り入れられている。例えば、サーバーやストレージシステムに搭載されるフラッシュベースの高速キャッシュソリューションが挙げられる。しかし、高速キャッシュソリューションはあくまでもキャッシュが効く用途に限られることから、本質的にはサーバーとストレージ間を結ぶインターコネクトそのものの高速化が依然として重要だ。

 そして、このようなサーバーとストレージ間の通信を劇的に高速化するインターコネクト技術がInfiniBandである。InfiniBandは、2014年4月時点でFDR(Fourteen Data Rate)のリンク速度に対応し、4レーンで56Gbps(=14Gbps×4)の帯域幅を提供する。また、高信頼のリンク層を通じたデータ転送とハードウェアベースのプロトコル実装によって、極めて短いレイテンシを実現している。

 こうした低レイテンシを支える代表的な技術がRDMA(Remote Direct Memory Access)転送である。RDMAは、異なるノードのメモリに対して直接アクセスできるようにする技術で、RDMA転送によってホストCPUのオーバーヘッド削減やデータ転送時のレイテンシ短縮につなげられる。大規模の科学技術計算を目的とした高速計算機(HPC)、アルゴリズム取引などの金融証券システムなど、とりわけ低レイテンシが求められる領域でInfiniBandが積極的に採用されてきた背景はここにある。

InfiniBandのロードマップ。2014年4月時点ではFDR(4レーンで56Gbps)まで製品化されている。将来的には、さらに100Gbps、200Gbpsへと高速化される予定で、同時にレイテンシも世代を追うごとに短縮されていく
異なるノードのメモリに対して直接アクセスできるようにするRDMA技術の仕組み。RDMA転送を活用することで、ホストCPUのオーバーヘッド削減やデータ転送時のレイテンシ短縮につなげられる

 ただし、エンタープライズITの世界では、InfiniBandそのものが使いやすい環境に置かれていなければなかなか採用するまでには至らない。この点において、Windows Server 2012でInfiniBandが正式にサポートされた点は大きな躍進といえよう。

 InfiniBand関連のソリューションを手がけるメラノックステクノロジーズジャパン株式会社 シニアシステムエンジニアの友永和総氏は、「InfiniBandは、これまでプロフェッショナルサービスによる技術支援を前提とするHPCやテクニカルコンピューティングで採用されてきましたが、そのようなサービスを気軽に利用できないエンタープライズITではとてもハードルが高い技術でした。しかし、Windows Server 2012でInfiniBandがサポートされてから、風向きが大きく変わろうとしています。しかも、Mellanox製のInfiniBandアダプタなら、Windows Server 2012のインボックスドライバでそのまま動作しますので、サーバーに装着するだけですぐに使い始められます」と説明する。

メラノックステクノロジーズジャパン株式会社 シニアシステムエンジニアの友永和総氏

(伊勢 雅英)