ニュース

新製品の投入でITインフラのクラウド化を強力に推進する Intel Cloud Dayレポート

 米Intelは3月31日(現地時間)、米国サンフランシスコでプライベートイベント「Intel Cloud Day」を開催した。製品発表に合わせて開催した小規模なイベントで、同社のデータセンターグループが中心となったこのイベントでは、新世代のXeonプロセッサやSSDドライブなどの新製品の発表よりも、むしろITシステムのクラウド化/SDI化を実現したユーザーの声を中心に、IntelがどのようにユーザーのITインフラの刷新を支援していくかという点に焦点を当てる形となった。

破壊的なイノベーションに取り組む

 Intelでは、2015年夏から“Cloud For All”というキーワードを掲げてクラウドへの積極的な取り組みを進めているが、今回のIntel Cloud Dayでもこの戦略が前面に打ち出された。イベントのキー・メッセージとして掲げられたのは“The Path to The Cloud is Clear”(クラウドへの道筋は明瞭だ)というもので、さらに“Together we're reducing the barriers to enterprise cloud”(我々は共にエンタープライズ・クラウドへの障壁を引き下げる)という言葉が添えられている。

 Intel自身は世界でも有数の規模と最先端のアーキテクチャを実装した高度なデータセンターの運営主体ではあるが、パブリッククラウドビジネスを手がけるわけではなく、あくまでも製品やテクノロジーの提供によって、企業や組織のITインフラの変革(エンタープライズクラウド化)を支援するという立場だ。

 このため、どうしても間接的な取り組みという印象は免れないものの、新たに投入された新製品などではクラウド環境での活用を前提とした機能の実装をアピールするなど、設計/開発の段階からクラウドを意識した取り組みを行なっていることは間違いない。

 同社のSenior Vice President, General Manager, Data Center GroupのDiane Bryant氏による基調講演では、ユーザー企業がITインフラの革新に取り組む意義が改めて語られると共に、同社が以前から公言している“Tens of Thousands of New Cloud”(万単位での新しいクラウドの誕生)という見通しが繰り返された。

基調講演を行ったIntelのSenior Vice President, General Manager, Data Center GroupのDiane Bryant氏

 現在のパブリッククラウド市場は「ハイパースケール」と称される少数のグローバルな事業者が支配的な地位を固めており、Bryant氏も“Super 7”という表現でこうした大規模な事業者のことを紹介していたが、同社がいう“Tens of Thousands of New Cloud”は別にこうしたハイパースケールの事業者に匹敵するような新しいクラウド事業者が万単位で出現するという話ではなく、企業ITインフラのクラウド化、いわばプライベートクラウドでありSDIの実装といった視点の話だと理解できる。

 その意味では同社のクラウド戦略は、オンプレミスのITインフラを活用しているユーザーがITインフラの刷新を進め、より高効率で俊敏性に富み、これまでになかった新たな価値を提供できる新世代のITインフラに変革する、という点を見据えたものだといえるだろう。

新プロセッサXeon E5-2600 v4を発表、クラウド向け機能を搭載

 同日付で発表された2ソケットサーバー向けの新プロセッサとなる「Intel Xeon processor E5-2600 v4」は、前世代となるIntel Xeon Processor E5-2600 v3のプロセスルールを微細化して14nmプロセスを採用したもので、最大構成では22コア44スレッドという規模になる。仮想化技術への対応強化などの結果、パフォーマンスは最大で44%向上するという。

新製品であるXeon Processor E5-2600 v4と、同プロセッサ向けに最適化されているというSSDを見せる、IntelのVice President, Data Center Group, General Manager, Intel Xeon Products and Data Center Marketing GroupのLisa Spelman氏

 中でもクラウド向けの機能として紹介されたのが“Intel Resource Director Technology”で、ここには“Cache monitoring and allocation technologies”“Memory bandwidth monitoring”“Intel Node Manager”といった複数の機能が含まれる。

 講演中で紹介されたキャッシュの利用状況のモニタリングと割り当て制御の機能では、実行中のワークロードに設定された優先度(Priority)に従ってキャッシュの割当量を動的に変更する例が紹介された。

 同一プロセッサ上で優先度の高いワークロードと低いワークロードが同時に実行されている場合、タイミングによっては優先度の高いワークロードの処理がアイドル状態になった結果、優先度の低いワークロードがプロセッサのキャッシュの大半を使用する状況になってしまうこともある。

 このとき、優先度の高いワークロードの処理が再開されてもキャッシュの割当量は変更されないため、優先度の低いワークロードがキャッシュを存分に活用して処理される一方、優先度が高いはずのワークロードがキャッシュミスの連発でパフォーマンスを落としてしまう、という状況に陥ってしまう。

 “Cache monitoring and allocation technologies”ではプロセッサ自身が実行中のワークロードごとにキャッシュの割当量などのリソース占有状況を監視しているため、ハイパーバイザやOSなどがワークロードの優先度を設定すれば、プロセッサ側では優先度に合わせてリソース消費量を最適化できる、という機能だ。

 この機能自体は、プロセスごとのQoS管理と考えればごく汎用的な機能と言えるが、マルチテナント環境で優先度の異なる複数のワークロードを同時処理する状況、と考えればクラウドや仮想化環境で最も効力を発揮する機能と位置づけてよいだろう。

NasdaqのPrinciple Technologist, Architecture and Performance EngieeringのSandeep Rao氏が示したスライド。キャッシュ割り当ての最適化を活用して優先度の高いアプリケーションのためにサーバーを占有させる形から、複数のワークロードを混在させる共用サーバー型への移行が可能になった結果、データセンターの効率は4.1倍に向上したという

 実ユーザーとしてNasdaqのPrinciple Technologist, Architecture and Performance EngieeringのSandeep Rao氏が登壇し、常に最高の優先度で実行すべき証券取引所のディーラーが使用するアプリケーションのパフォーマンスが安定したことで、これらのワークロードを実行するサーバに優先度の低いワークロードを混在させても問題が生じることがなくなり、結果としてサーバの統合を進めてコスト削減を実現できた(データセンターの効率が4.1倍になった)、という先行評価事例も紹介された。

 このほか、OpenStackやコンテナ技術など、クラウド関連のオープンソース・ソフトウェアプロジェクトとの広範な協力関係の強化なども次々と紹介され、クラウド事業そのものを手がけていないからこそ誰とも競合せずにさまざまな取り組みを柔軟に推進できるというIntelの立場だからこその発表もさまざまに行われ、Intelのクラウドに向けた取り組みの幅の拡がりを改めて認識できたイベントとなった。

渡邉 利和