特別企画
ハードウェアオフロード技術を活用したWindows Server 2012 R2の新しい仮想化ソリューション【前編】
Hyper-Vのストレージアクセスを劇的に高速化するSMB 3.0とRDMA技術
(2014/4/25 06:00)
RoCEの登場によって10G/40G Ethernetの魅力がさらに増す
InfiniBandがどれだけ高速であろうと、実績の豊富なEthernetを使いたいと思う人がいるのも事実だ。InfiniBand製品は、Mellanoxを中心とする極めて少数のベンダーしか手がけていないが、Ethernet製品であればさまざまなベンダーから選べるからだ。また、接続先となるストレージシステムも、InfiniBandポートをネイティブに備えた製品はまだ少なく、Ethernetポートを搭載した製品が圧倒的に多い。
これまでを振り返ると、InfiniBandがネイティブでRDMA技術をサポートしていたのに対し、Ethernetは通信効率の面で見劣りする部分があった。しかし、近年ではInfiniBandで培われた広帯域・低レイテンシの通信技術をEthernetに適用したRoCE(RDMA over Converged Ethernet)が実製品のレベルで登場している。RoCEは、フロー制御によるロスレスの10Gigabit/40Gigabit Ethernet(10GbE/40GbE)を足回りとしながら、その上でInfiniBand譲りのRDMA転送を行う、運用性と転送効率を両立した新世代のプロトコルである。
このように、EthernetでもRDMA技術がサポートされたことで、Ethernetの魅力が一気に増した。ユーザーにとっては、RDMA技術を利用できる足回りとしてInfiniBandとEthernetという2つの選択肢が生まれたわけだが、その一方で、システムを設計する際にはどちらかひとつをあらかじめ選ばなければならないことにもなる。
こうした課題に対し、Mellanoxは、InfiniBandとEthernetのどちらにも対応可能なVirtual Protocol Interconnect(VPI)を用意している。ConnectX-3 VPIに基づく最新のNICは、InfiniBand QDR/FDRもしくは10GbE/40GbEをドライバ設定だけで切り替えて使用することができるI/Oポートを備えている。これにより、既存のインフラに対する投資を最大限に保護しながら、これからの新しい計画に基づくインターコネクト技術も柔軟に導入できるようにしている。
また、Mellanox製のNICは、VMware ESX 5.5以降(40GbE NICとして動作)やOpenStack(iSCSI Extensions for RDMAで利用可能)において、標準のインボックスドライバとOpenStack pluginでそのまま利用できる点も大きな強みといえる。
40GbEのニーズは、一部の大規模クラウドサービスプロバイダなどを中心に拡大しつつあるものの、本格的な普及にはまだ時間がかかりそうだ。これに対し、10GbEは、NICやスイッチの低価格化が急速に進み、普及の兆しが見えてきている。こうした最新の動向に対し、日本マイクロソフト株式会社 デベロッパー&プラットフォーム統括本部 ITアーキテクチャー推進部 エバンジェリストの高添修氏は、「Windows Serverが稼働する小規模システムでは、これまでGbEポートのチーミングによって帯域幅を稼ぐケースが一般的でした。しかし、最近では10GbEのポート単価がかなり安くなってきていることから、GbEポートを束ねるアプローチだけでなく、10GbEの採用も現実的になってきました。今後は、サーバー本体のリプレースと合わせて10GbEへの移行も急速に進んでいくはずです。そして、その先には40GbEへの道も少しずつ見え始めています」と説明する。