クラウド&データセンター完全ガイド:イベントレポート

【データセンターコンファレンス2015 Winter】基調講演レポート:
データセントリックコンピューティングを導くOpenPOWER Foundationのビジョンと実践

サービス基盤を自社開発するグーグルが、2014年にIBM製CPU「POWER8」を採用したデータセンター向けサーバー用マザーボードを発表。インテルからIBMへの移行が大きな話題となった。背景にはOpenPOWER Foundationへの取り組みがある。「データセンターコンファレンス2015 Winter」(主催:インプレス データセンター完全ガイド編集部)の基調講演に日本IBM 理事ハイエンド・システム事業部長の朝海孝氏が登壇。データセントリックをキーワードにビジョンと実践を解説した。

ムーアの法則が終焉へ 次なるIT業界のイノベーションは

東京大学大学院 情報理工学系研究科 教授の江崎浩氏いわく、「現在はデータセンター業界に第3の波が訪れている」。第1の波はインターネットが登場した1990年代から始まり、2000年頃のITバブルが第2の波。2000年代終盤から始まったインターネット決済が第3の波。その後、クラウド、ビッグデータ、IoT、AIなどの要素が加わり現在に至る。

写真1:日本IBM 理事 ハイエンド・システム事業部長 朝海 孝氏

江崎氏に招かれ登壇した朝海氏(写真1)は、まず、データセンターの演算キャパシティが拡張の一途をたどっている点に言及した。要因は業務アプリケーションよりも、ソーシャルやアナリティクスといったクラウド基盤の爆発的増加がある。演算キャパシティが引き上げられるとコストも高騰するが、サーバーのコストパフォーマンスが上昇しているために、データセンターのコストを維持できている面があるという。

朝海氏は「これまでCPUの性能向上は、1年半から2年ごとに半導体の性能は2倍になるムーアの法則に依拠してきた。だが、この法則にも終焉が来ている」と語る。今やプロセッサ技術は原子レベルに近いところまで集積度が高まっており、今後は今までのペースでは性能が上がっていかない。コンピュータアーキテクチャの構造的な限界というわけだ。

「そこで、これまでのような性能向上を維持するには、ワークロードアクセラレーション、サービスデリバリーモデル、メモリ技術、ネットワークI/Oの高速化などシステムスタック全体での技術革新が必要になる」(朝海氏)。同氏によると、この領域では、業界全体のコラボレーションによる、オープンで透明性の高い、いわゆるホワイトボックスのアプローチが主流になっていくという。

そうした構想を具現化しようとしているのがOpenPOWER Foundationである。システムスタック全階層のメンバーによるコラボレーションモデルとして2013年12月に設立された業界団体だ。POWERの名称が入っていることからIBMの組織だと勘違いされることがあるが、そもそもはグーグルが呼びかけたものだ。「グーグルの目論見としては、インテルにロックインされて価格保護されているCPUや、消費電力といった課題を解決することだった。オープンなコラボレーションのためにはCPUの仕様開示が不可欠で、IBMがそれにこたえていくことになった」と朝海氏。

発足時のコアメンバーはチェアマンのグーグルと、エヌビディア、メラノックス、タヤン、IBMの5社。フェイスブックが提唱するOpen Compute Project(OCP)に対抗する動きでもある。世界各国から150を超える企業・組織が加盟し、日本からも日立製作所、NEC、東京大学、早稲田大学、東北大学などが参加している。

データセントリック コンピューティングの設計思想

ムーアの法則の終焉に伴うもう1つのキーワードがデータセントリックである。朝海氏の説明はこうだ。??CPUは世代が進むごとに処理速度が上がる。従来のコンピューティングアーキテクチャでは、CPUの近くにデータを運んで処理するため、CPUの処理能力が高くなるとデータの転送スピードが追いつかなくなるという課題があった。そのため、I/Oを速くしたりキャッシュを大きくしたりといった工夫をしていた。その究極が、大量のCPUに並列処理をさせるHPC(High Performance Computing)だ。一方、IoTやソーシャルなどのビッグデータ処理は、1つ1つの処理は軽いが、データ量が膨大。両者の特性が大きく違うため、両立させるにはデータ転送がネックとなる。そこで、データをCPUの近くに持っていくのではなく、CPUをデータに近づける。これが、データセントリックコンピューティングの考え方だ――(図1)。

図1:データセントリックコンピューティングの位置づけ(出典:日本IBM)

朝海氏は、データセントリックコンピューティングの設計思想の基本原則として、①データの移動を最小限にする、②あらゆる場所で演算する、③モジュラー型の設計にする、④業務ワークフローへの最適化、⑤OpenPOWERによるイノベーション加速の5つを挙げる。

「データ転送のためにも電力は必要なので、データを動かさずデータのある場所で処理すると省電力になる。また、モジュラー型で設計すれば、新しい技術やステークホルダーを追加しやすい」と朝海氏。④については、「アプリケーションが使いやすい状態であるという意味で、そうでなければ浸透しないだろう。そのためには、フルスタックでオープンなコミュニティが必要だ」と強調した。

ユースケースに見る データセントリックの優位性

講演の後半は、OpenPOWER上で共創された製品やデータ処理ソリューションのユースケースが3つ紹介された。1つ目は、ビッグデータ処理に適した大規模インメモリNoSQLソリューションだ。ビッグデータ時代のデータセンターでは、アナリティクスやソーシャルといった非定型処理がメインになる。朝海氏は、x86サーバーで稼働するインメモリSQLと、POWER8サーバーで稼働するインメモリNoSQL(CAPI:Coherent Accele rator Processor Interfaceによる拡張)との比較を示し、インフラ削減やコスト低減、省スペースの面で後者に分があることをアピールした。

写真2:東京大学大学院 情報理工学系研究科 教授 江崎 浩氏

CAPIはプロセッサのメモリに外部デバイスからダイレクトアクセスを可能にする機構だ。デバイスドライバが不要で、またロジックを伴わないプログラムレスのため、ここの処理でプロセッサのリソースが消費されない。また、POWER8サーバーのメインメモリに40TBフラッシュメモリを採用し、I/Oのオーバーヘッドを極小化している。「プロセス切り替え時のコンテクストスイッチはCPUに大きな負荷をかけるが、その問題が解決されている」と江崎氏(写真2)も評価する。

もう1つは、クラウド上でのLAMPアプリケーション使用時の比較だ。x86サーバーを使っているAWSと、POWER8を使っているSoftLayerで比較すると、後者のほうが38%パフォーマンスが高かった。さらに、時間あたりユーザー数とそのコストを比較すると、後者は65%安価ながら1.59倍の処理を実現している(ここではCAPIを採用していない)。

朝海氏によると、このコスト比較では、電気代も含んだサービスコストで比較しているという。「POWERはx86に比べて消費電力が小さく、サービスコストを低く抑えることが可能。グーグルが興味を示すのもこれが大きなポイントとなった」(同氏)。また、ムーアの法則のボトルネックとして、熱を逃がせないために密度を上げられない点を指摘し、ここでも発熱を極小化する構造のPOWER8によって、ある程度の解決が図れるという。

3つ目はGPGPU(General-Purpose Computing on GPU)の活用で、2017年の稼働を目指す米エネルギー省(DOE)の新システムでOpenPOWERが採用された事例が紹介された。朝海氏は「専用ハードウェアではなく汎用製品で構成されているのが特徴。これまで科学計算や学術研究に限られていたスーパーコンピュータの用途を拡張し、社会のさまざまな問題を解決するための道具にする目的がある」と説明。DOEの管轄であることから低消費電力も重視され、現行のスパコンと同じ電力で10倍のパフォーマンスが設計目標だ。

「最新のPOWERは、メインフレームの代替にも使えるのか」という江崎氏の質問に、朝海氏は、「z Systemsもデータセントリック設計である。また、Watsonを駆動するのもPOWERサーバーである」と回答し、次世代データセンターの要件を満たすデータセントリックコンピューティングの優位性を訴えた。

(データセンター完全ガイド2016年春号)