インタビュー

Mellanox本社エグゼクティブ・インタビュー【後編】~新たに手がけるEthernet分野への取り組み~

 Mellanox Technologiesのイスラエル本社(Mellanox Technologies Ltd.)と米国(Mellanox Technologies Inc.)からエグゼクティブが来日し、one-on-oneによるインタビューの機会を設けていただいた。今回は、本社 最高技術責任者(CTO)のMichael Kagen氏、ワールドワイドセールス バイスプレジデントのMarc Sultzbaugh氏、スイッチ製品に関するプロダクトマーケティング責任者のAmit Katz氏に、InfiniBandやEthernetに対する同社の取り組みを中心に、さまざまな話を伺ってきた。

 後編では、サーバー仮想化分野に対する取り組み、省電力の重要性、Mellanoxの新しい柱であるEthernet分野での展望などを取り上げていく。

Mellanox Technologies Ltd. 最高技術責任者(CTO)のMichael Kagen氏
写真左はMellanox Technologies Inc. VP of Worldwide SalesのMarc Sultzbaugh氏、写真右はMellanox Technologies Ltd. Director Product Management, Switch Systems & SiliconのAmit Katz氏

SR-IOV対応ドライバによって仮想サーバーのさらなる集約率向上を狙う

――Messaging Accelerator(VMA)やUnstructured Data Accelerator(UDA)は、大量のサーバーで並列処理を行うWeb 2.0環境に適したソリューションとなりますが、エンタープライズIT分野ではサーバー仮想化やクラウドコンピューティングの潮流も無視できません。私は、2012年1月に寄稿した記事の中で、サーバー仮想化技術によって多数のサーバーを集約していくと、その出入り口となるI/O部分が新たなボトルネックを生むこと、そしてそれを解消するためにInfiniBandのような広帯域・低レイテンシのインターコネクト技術でI/O統合を図る必要があると書きました。Mellanoxは、このようなサーバー仮想化の流れに対してどのように取り組んでいくのでしょうか。

Marc Sultzbaugh氏
 近年では、物理サーバーに収容される仮想サーバーの台数が増加の一途をたどっています。Mellanoxは、インターコネクトの高速化を通じて仮想サーバーの集約率を最大限に高めていけるような支援を継続的に行っています。

 InfiniBandや10Gigabit Ethernet(GbE)といった高速なインターコネクト技術とともに、それぞれのアプリケーションにあったプロトコルを組み合わせることで、仮想サーバーの集約率をさらに高められます。

 裏を返せば、仮想サーバーの集約率が向上するにつれてI/Oに対するニーズも高まっていきますから、Mellanoxはそこにさらなる商機を生み出せます。昨今のサーバー仮想化の流れは、Mellanox自身にとっても非常に望ましいトレンドだといえます。

Michael Kagen氏
 サーバー仮想化ソリューションに対するMellanoxの新しい取り組みとしては、仮想サーバーとネットワーク間のネイティブインターフェイスをサポートした点が挙げられるでしょう。

 従来は、ハイパーバイザー上で動作するソフトウェアベースのスイッチが使用されていましたが、新しいサーバー仮想化ソリューションではハイパーバイザーをバイパスさせて、仮想サーバー自身が物理的なネットワークスイッチを直接利用できます。Mellanoxの製品は、このバイパスメカニズムにいち早く対応することで、仮想サーバーの集約率向上やライブマイグレーションの高速化などにつなげています。

 将来的には、ConnectX-3 VPI世代でSR-IOV(Single Root I/O Virtualization)にも対応させる予定です。SR-IOVに対応したデバイスドライバはKVM向けから先にリリースされ、その後はXenやVMwareにもサポートの範囲を広げていく計画です。

 SR-IOV対応ドライバを利用することによって、仮想サーバーから当社のInfiniBand HCAや10GbE/40GbE NICをネイティブに扱えるようになり、物理サーバーの出入り口となるインターコネクトの通信性能を最大限に引き出せます。

物理サーバー間を接続するインターコネクトの性能が向上することで、仮想サーバーのライブマイグレーションに必要な時間が短縮される(出典:メラノックス テクノロジーズ ジャパン株式会社、以下同様)。また、このような広帯域のインターコネクトとRDMAを組み合わせることで、ライブマイグレーションの時間をさらに短縮できる

NVIDIA製GPUを活用したテクニカルコンピューティングでの応用例

――これまで説明していただいた以外の新しい取り組みはありますか?

Michael Kagen氏
 HPCやテクニカルコンピューティング向けのソリューションになりますが、MellanoxのInfiniBandとNVIDIAのGPUを組み合わせたアプリケーションがあります。これらのコンピューティング分野で使用されるNVIDIA Tesla GPUは、GPUDirectと呼ばれる機能に対応しています。GPUDirect は、CPU上の不要なオーバーヘッドを取り除くことにより、PCI Expressバスを介したGPU間もしくはGPUと外部デバイス間の通信性能を引き上げる技術となります。

 HPCやテクニカルコンピューティング環境では、GPUを搭載した複数のノードを連携させてさまざまな演算処理を並列的に行います。NVIDIAが提供するrCUDA(Remote CUDA)を活用すれば、アプリケーションからはノード間を結ぶインターコネクトを介して複数のGPUに対して透過的にアクセスできるようになります。

 この広帯域・低レイテンシのインターコネクトとしてInfiniBandが適していますが、ここでさらにGPUDirectを併用することでクラスタ全体の処理性能を高められます。

 当社の検証環境において、NVIDIA Fermi C2050 GPUを搭載した8ノード構成のPCクラスタ上でAmber Molecular Dynamics Package(分子動力学シミュレーションソフトウェア)のCellulose Benchmarkを実行したところ、GPUDirectを有効にすることで33%も処理性能が向上していました。

NVIDIAのGPU製品は、PCI Expressバスを介したGPU間もしくはGPUと外部デバイス間の通信性能を引き上げるGPUDirectをサポートする。クラスタリングシステムでは外部インターコネクトを介してGPU間の通信が行われるが、この部分にInfiniBandを採用することでシステム全体の処理性能を大きく高められる
Mellanoxの社内環境でAmber Molecular Dynamics Package - Cellulose Benchmarkの実行速度を計測した結果。GPUDirectを利用することで処理性能が向上しているが、ノード数の増加によってさらなる向上が見込まれる
将来的には、アプリケーションからGPUによる計算機能をサービスとして利用する「GPU as a Service」がさらに本格化しそうだ。多数のGPU間を接続するインターコネクトとしてInfiniBandを活用することで、リモート接続のGPUもローカル接続のGPUもあまり変わらない速度でアクセスできるようになる

大規模HPCを手がけ始めた時代から省電力化に取り組んでいるMellanox

――日本では、2011年に発生した東日本大震災で深刻な電力問題がクローズアップされましたが、実はデータセンターに対する電力供給の問題はどの国でも深刻だと聞いています。Mellanoxの製品は消費電力の少なさも大きなメリットとして打ち出していますが、このような省電力化に向けた取り組みについても解説をお願いします。

Marc Sultzbaugh氏
 近年では、エンタープライズIT環境においても、Hadoopなどを活用した並列処理アプリケーションがかなり増えています。しかし、多くのデータセンターではラック当たりの電力供給量に上限があることから、ラック内にサーバーやストレージシステム、ネットワーク機器などのハードウェアを完全に埋められずにいます。

 Mellanoxは、大規模HPCの時代からデータセンターの電力問題に直面しており、特にインターコネクトの消費電力を最小化する努力を重ねてきました。当社は、こうした長年培ってきた技術の集大成によって、すでに他社の追従を許さないレベルにまで省電力化を達成しています。

 低消費電力を実現することはコストの削減にもつながります。多くのお客さまは、多数のコモディティサーバーを束ねることによって、高い処理性能を効率よく低コストで引き出そうとしています。HPCやWeb 2.0のように何千台ものサーバーを接続しなければならない環境では、電気料金がランニングコストに大きな影響を及ぼします。

 電気料金は無駄なコストそのものであり、企業の収益を改善する意味でも最小限に抑える努力が欠かせません。Mellanoxのソリューションを導入すれば、インターコネクト部分の電力消費を最小限に抑えられるため、結果としてより多くのサーバーをラックに収容できるようになります。これは、消費電力当たりの処理性能を改善することにもつながります。

Amit Katz氏
 Mellanoxは、シリコンレベルから製品開発を手がけている強みを生かし、極めて電力効率に優れたホストおよびスイッチ向けチップを提供しています。そして、これらのチップを搭載したHCAやNIC、スイッチ製品もまた業界トップレベルの電力効率を達成しています。さらに、システムレベルで電力消費を抑える仕組みも盛り込まれています。

 例えば、40GbEに対応した最新のEthernetスイッチ(SwitchX SX1036)とNIC(ConnectX-3 40GbE NIC)を組み合わせることで、スイッチとノード間の接続スピードとして10Gと40Gをネットワークの負荷率にあわせて動的に切り替えることができます。

 これにより、ノードが必要とする通信性能を確保しながら、データ通信時の電力消費を最小限に抑えます。また、ノード間の通信を効率化する最適なルーティングアルゴリズムを通じてスイッチの負荷を下げることにより、スイッチ自身の電力消費も低減しています。

高密度・優れた価格対性能比・省電力を武器とするMellanoxの新しいEthernetスイッチ製品

――これまでMellanoxはInfiniBandの会社というイメージが強かったのですが、Ethernetに対する取り組みもかなり積極的であることが分かりました。10GbE NICの市場では、ついにIntelを抜いてトップシェア(24.6%)を獲得しています。特にEthernet関連のソリューションについて今後の戦略をご紹介いただけますか。

Amit Katz氏
 Ethernet製品に関する販売戦略は、基本的にInfiniBandと同じようなアプローチをとります。サーバーやストレージに対するエンドツーエンドのインターコネクトソリューションとして、サーバーやネットワーク関連企業など、OEMパートナーとの密接な連携によってビジネスを拡大しています。

 Ethernetに対する取り組みは数年ほど前から着手していますが、まずは10GbE NICから発売を開始しました。Mellanoxは、チップ自身の開発も手がけている強みを生かし、10GbEの市場が立ち上がる以前から10GbE NICをかなりアグレッシブな価格設定によって展開することができました。結果的に、2011年第4四半期において24.6%というトップシェアを獲得することに成功しています。

 そして、最近では高密度、低レイテンシ、省電力などを強みとするスイッチ製品を新たに発売しています。ポート構成やスイッチング能力(バックプレーンの通信帯域幅)などの違いによっていくつかのモデルがありますが、そのいずれもが1Uラックマウントという薄型の筐体を採用しています。

 例えば、SX1036は2.88Tbpsのスイッチング能力を持ち、1Uサイズで業界最高となる40GbE×36ポートを提供します。また、SX1016は1.28Tbpsのスイッチング能力を持ち、同じく1Uサイズで業界最高となる10GbE×64ポートを提供します。これほどの高密度化は、電力や冷却の面で設計のハードルが極めて高いのですが、競争力のある価格対性能比を実現する上で決して妥協できないポイントでした。

 Mellanoxのスイッチ製品は、自社開発の先進的なスイッチ用チップを搭載することにより、レイテンシやポート当たりの消費電力も業界最小クラスを達成しています。レイテンシは、40GbEで230ナノ秒、10GbEで250ナノ秒となっており、他社製品と比べると4分の1程度の短さです。また、消費電力は40GbEポートが2.8W、10GbEポートが1.8Wとなります。通常、ポート当たり4~5Wを達成していれば技術的に優秀と言われますが、Mellanoxのスイッチ製品はそれを大きく上回る低消費電力を実現しています。

――新たな船出を迎えたEthernetスイッチ製品は現時点でどのような手応えでしょうか。

Amit Katz氏
 今後、1GbEから10GbEへの移行がさらに加速します。10GbEポートを標準で搭載するサーバーも次々と出荷されますので、10GbEスイッチに対する需要はますます高まっていくと予想しています。高密度、優れたコストパフォーマンス、省電力などを強みとするMellanoxのスイッチ製品が、このような市場の中で10GbE NICと同様に高いシェアを獲得できると確信しています。

 また、40GbEについてはストレージシステムとの接続で使われ始めると予想しています。ストレージは、コンピューティングノードよりも早い段階で広帯域のポートが求められる傾向にあるからです。もちろん、将来的にはクラウド、金融分野、HPC、Web 2.0などのコンピューティングノードも40GbEの接続対象となるでしょう。

 40GbEが本格的に立ち上がることで、お客さまはInfiniBandのほかに40GbEという新たな選択肢が生まれます。40GbEは、単に広帯域なだけでなく、RDMAによる低レイテンシ、ノンブロッキングなロスレスファブリックなど、InfiniBandに匹敵する特徴を数多く備えています。これまでさまざまな理由でInfiniBandを選べなかったお客さまも、40GbEの導入によって、これまで以上に高いパフォーマンスを引き出せるようになります。

――現在の1GbEポートのように、10GbEポートがサーバーのマザーボードにオンボードで搭載されるようになると、単体で販売している10GbE NICの売り上げに影響は出ませんか?

Marc Sultzbaugh氏
 Mellanoxの特徴であるRDMAやロスレスファブリックを活用する場合には、これらの機能をサポートするNICが必要になりますので、とりわけ性能を求めるお客さまには今後もMellanoxの10GbE NICが選ばれるだろうと考えています。

 また、HPのサーバーなどには、LOM(LAN on Motherboard)を実現するコントローラとしてMellanoxの10GbEチップがすでに搭載されています。MellanoxのEthernetチップは、BroadcomやIntelなど、LOMで多く採用されている主要なチップとフットプリントを合わせてありますので、マザーボードへの統合も容易です。Mellanoxの良さが認められれば、今後はLOMソリューションとしてもビジネスを広げていけるチャンスが生まれます。

Mellanoxの10GbE NICは、そのシェアを着実に高めており、2011年第4四半期にはIntelを抜いてトップシェア(24.6%)を獲得している
MellanoxのEthernet製品に関するポートフォリオ。基本的にはInfiniBandと同様にエンドツーエンドのソリューションをトータルに提供する形となる
SwitchX SX1036の主な特徴。1Uラックマウントサイズで40GbE×36ポートという高密度を実現している。ティア1とティア2間に40GbEリンクを使用したコアもしくはトップオブラック接続に適した製品である
SwitchX SX1016の主な特徴。1Uラックマウントサイズで10GbE×64ポートという高密度を実現している。40GbEポートのない他社製コアスイッチとのトップオブラック接続に適している製品である

Intelの参入によってInfiniBandの市場自体が広がることに大きく期待

――最後に、これは個人的に絶対にお聞きしてみたい話題なのですが、1月23日(米国時間)にIntelがQLogicのInfiniBand資産を1億2500万ドルで買い取るという発表がありました。InfiniBandの市場にIntelが再参入を果たすことに対して、Mellanoxはどのように考えているのでしょうか。

Michael Kagen氏
 今回の買収劇は、Intelがビジネスを推進していく上でインターコネクトの重要性を認識した証拠といえます(筆者注:インタビュー後の4月24日には、さらにCrayからHPC向けのインターコネクト資産を1億4000万ドルで買収している)。

 単一もしくはたくさんのアプリケーションが走る何千台ものサーバーを相互に接続し、それぞれのサーバーに搭載されているIntel製プロセッサーの処理能力を最大限に引き出すためにはInfiniBandが必要だったということです。

 Intelは、もともとIBTA(InfiniBand Trade Association)のメンバーとしてInfiniBandの黎明(れいめい)期を支えてきた企業です。彼らがまたこちらに戻ってきて、InfiniBandの市場をさらに活性化してくれることをMellanox自身も歓迎します。

――Intelが本格的に動き出すと、これまでInfiniBand市場で単独首位のような状態だったMellanoxも競争に参加しなければなくなります。すでに対策は打っていますか?

Marc Sultzbaugh氏
 Mellanoxは、競争することをいといません。実際、多数の強豪がひしめく10GbE NICの市場にも新規に参入して、現在ではトップシェアを獲得するまでに成長しています。特にInfiniBandに関しては長年積み重ねてきた技術やノウハウがありますので、すでに他社に対して大きなアドバンテージがあります。

 例えば、Intel(旧QLogic)の製品はQDR規格までの対応にとどまりますが、MellanoxはすでにFDR規格に対応した製品を広く発売しています。また、GPUDirect、FCA、VMA、VSA、UDAなど、お客さまのアプリケーションを高速化するソフトウェアソリューションを充実させています。このようなMellanoxの「総合力」は、長年にわたって取り組んでいるからこそ手に入れられるものなのです。

――Mellanoxは、InfiniBandの市場において85%という圧倒的なシェアを持っています。今後、Intelの本格参入によって両社のシェアはどのように推移しそうですか。

Michael Kagen氏
 Intelが本格的にビジネスを広げていくことで、数字上のシェアは落ちていくかもしれません。しかし、Intelの力を借りてInfiniBandの市場そのものが広がっていきますから、Mellanoxとしての収益は相対的に増えていくことになります。限られた市場の中でシェアを高めたり、維持したりすることよりも、広がりつつある市場の中で絶対的な収益を増やしていくことのほうが、Mellanoxとしてはずっとありがたいです。

 今後、Intelとの切磋琢磨(せっさたくま)を通じてInfiniBandの市場がさらに広がれば、より多くのお客さまがインターコネクトとしてInfiniBandを選択する機会も増えるでしょう。Mellanoxは、この部分に新たな商機を見いだし、InfiniBandとEthernetを両輪としながら、これからもお客さまのニーズを先取りする多様なソリューションをアグレッシブに提供していきます。

 今回、InfiniBandに関する記事を執筆するにあたり、メラノックス テクノロジーズ ジャパン株式会社の多大な協力をいただいた。あいにく日本国内では旧QLogicサイドから有益な情報を迅速に得ることが難しく、前回の技術解説を含めて、圧倒的な市場シェアを持つMellanoxを中心に据えて話を展開させていただいた。

 ただし、Mellanox以外のベンダーの動きももちろん重要だと考えている。幸いなことにIntelが再参入を果たしたことで、今後はInfiniBandに関する情報をIntelサイドからもとりやすくなると期待している。

 Intelは、ここ最近になって10/40GbEスイッチ向けチップを手がけるFulcrum Microsystemsを買収したり、QLogicのInfiniBand資産やCrayのHPC向けインターコネクト資産を獲得するなど、広帯域インターコネクト技術に対してかなりご執心のようである。

 Intel米国本社あたりからインターコネクト技術に詳しいエグゼクティブが来日したら、今度はIntelの視点からさまざまなお話を伺いたいと思っている。将来、そのような機会が得られたら、また本誌に寄稿させていただく予定だ。