特別企画
ハードウェアオフロード技術を活用したWindows Server 2012 R2の新しい仮想化ソリューション【前編】
Hyper-Vのストレージアクセスを劇的に高速化するSMB 3.0とRDMA技術
(2014/4/25 06:00)
エンタープライズITの世界では、仮想化技術や高性能データベース、Apache Hadoopのような分散システム技術の台頭により、ネットワークやストレージなどのI/Oボトルネックが大きな課題となっている。近年では、こうしたI/Oボトルネックを解消するソリューションとして、InfiniBandや10Gbit/40Gbit Ethernetのような高速I/Oソリューション、フラッシュメモリを活用した高性能ストレージなどが続々と登場している。
しかし、インターコネクトやストレージの高速化によってI/Oボトルネックを解消しようとすると、今度はこれらのI/Oを処理している物理サーバー内のホストCPUが新たなボトルネックとなり、結果的にパフォーマンスを発揮しきれないケースが出てくる。
そこで重要になってくるのが、最新のNIC(ネットワークアダプタ)に搭載されているハードウェアオフロード機能である。ハードウェアオフロードに対応したNICをサーバーに装着することで、これまでホストCPUが担っていた処理をNIC内のハードウェアへと移すことができ、I/Oパフォーマンスの向上とホストCPUの負荷軽減につなげられる。
今回は、仮想化基盤での採用例が近年急速に増えているMicrosoftのHyper-Vに着目し、とりわけWindows Server 2012 R2を取り巻くハードウェアオフロード技術の動向を追っていく。ここでは、日本マイクロソフト株式会社、メラノックス テクノロジーズ ジャパン株式会社、そしてハードウェアオフロード技術を取り入れているエンドユーザーの方に取材協力を得た。
前編では、SMB Direct(SMB over RDMA)を中心に、ストレージアクセスの高速化につながるハードウェアオフロード技術を紹介していく。
サーバーとストレージ間を接続するインターコネクトの高速化がますます重要に
多くの仮想マシンが集約されたサーバー仮想化基盤やデスクトップ仮想化基盤、高性能データベースなどでは、これらを支える物理サーバーの出入り口として極めて高速なインターコネクトが必要とされている。多くの物理サーバーは、ネットワークやストレージを接続するためのI/Oポートを備えているが、パスの冗長化や帯域幅の確保を目的として、複数のI/Oポートをグループ化して運用するケースも多い。
しかし、このようなI/Oポート構成でシステム規模を拡張していくと、ケーブリングが複雑になり、システム全体の複雑さがさらに増す。この結果、トラブルが発生しやすくなったり、パフォーマンスの最適化に時間がかかったりするなど、運用負荷の増大につながる。
こうした複雑なケーブリングの課題を解消するのが、高速インターコネクトを活用したI/O統合である。I/O統合は、極めて高速なインターコネクト上にLAN、クラスタノード間の通信、ストレージトラフィックなどを同時に転送することで、物理サーバーにひも付くケーブル数を大幅に削減し、システム全体の構成を簡素化する。
近年では、このようなI/O統合を後押しするソリューションとして、広帯域と低レイテンシを強みとしたInfiniBandベースのソリューションや、FCoE(Fibre Channel over Ethernet)、IEEE 802.1 Data Center Bridging(DCB)に代表される、ロスレスEthernetを活用したソリューションなどが選択可能だ。
しかし、多くのエンタープライズIT環境において、ネットワークとストレージ双方のI/O統合を前提とした取り組みはかなりハードルが高い。まずは、最も投資対効果に優れたストレージ接続に高速インターコネクトを導入するところからスタートし、将来的なステップとしてI/O統合やネットワーク仮想化へと歩みを進めていく流れが望ましい。