クラウド&データセンター完全ガイド:特集

次世代ITインフラを導くデータ/メモリセントリックのインパクト

ポストムーア時代のデータセンター(Part 2)

弊社刊「クラウド&データセンター完全ガイド 2018年秋号」から記事を抜粋してお届けします。「クラウド&データセンター完全ガイド」は、国内唯一のクラウド/データセンター専門誌です。クラウドサービスやデータセンターの選定・利用に携わる読者に向けて、有用な情報をタイムリーに発信しています。
発売:2018年9月29日
定価:本体2000円+税

Part1で紹介したとおり、プロセッサーからデータやメモリへと重心をシフトさせてコンピューティングアーキテクチャを見直す動きが加速しつつある。この動きは「本質的に価値があるのはデータであってプロセッサーではない」という考え方にとどまるものではなく、すでにアーキテクチャの変革につながる取り組みが実際に始まっている。本稿では、データ/メモリセントリックの動向を詳しく見ていくことにしよう。 text:渡邉利和

「The Machine」が目指すコンピューティングの再定義

 現在、米ヒューレット・パッカード(HPE:Hewlett-Packard Enterprise)が歴史あるビッグベンダーの威信をかけて取り組んでいるのが「The Machine Project」である。HPEはこの研究開発プロジェクトの成果をパッケージングして世に出すための準備を進めている(写真1)。

 The Machineで得られた主要成果の1つが「メモリ主導型コンピューティング(Memory-Driven Computing)」だ。現在の技術で実現可能な範囲で実装した試作システムも昨年稼働開始しており、将来展望ではなく現実的なソリューションに近い取り組みとなっている。

写真1:The Machineでの研究開発をパッケージングした例。2017年5月に発表された世界最大規模の単一メモリ(160TB)コンピュータのプロトタイプ。米コロラド州フォートコリンズで稼働中(出典:日本ヒューレット・パッカード)

プロセッサーとメモリの主客逆転

 データセントリックという文脈からメモリ主導型コンピューティングを見ると、そのコンセプトは一目瞭然だ。現在、エンタープライズサーバー製品のアーキテクチャは、プロセッサーの性能向上ペースが頭打ちになっているのを受けて並列度の向上に舵を切っている。このことから、多数のプロセッサーコアとメモリのセットを相互接続する構成が主流になっている。

 一方、メモリ主導型コンピューティングでは、システムの中核に不揮発性メモリを据え、ここに格納されたデータを周辺に配置されたさまざまなプロセッサーが処理するという、主客を逆転させた設計が採られている(図1)。

図1:プロセッサーとメモリの主客逆転(出典:日本ヒューレット・パッカード)

「プロセッサーへのデータ送出の無駄」に着目

 データ爆発の時代を迎え、データは等比級数的に増大を続けているのに対して、プロセッサーの処理能力は等差級数的向上すら維持が困難になり、ペースが追いつかなくなっている。策としてプロセッサー数をさらに増やすくらいしかないが、設置スペースや消費電力の問題があるので現実的に無理ということになる。

 では、どうするか。The Machineの研究開発でHPEが注目したのは、「従来のアーキテクチャに基づいてプロセッサーにデータを送ることの無駄」だという。ストレージからデータを読み出して、プロセッサーに接続された主記憶(DRAM)にコピーし、用が済んだらまたストレージに書き戻す。DRAMとストレージ(HDDもしくはSSD)の速度差もあって無駄な時間消費が発生しているし、データ転送には電力消費も伴っている。

 こうした無駄を排除して効率を改善できれば、データ量の等比級数的増大に対応しうる持続可能なコンピューティングを実現できるのではないだろうか――というのがThe Machineの基本的なコンセプトとなっている。上述したプロセッサーとメモリの主客逆転は、データ移動の無駄を排するという合理的な発想から生まれたものだ。

 こうした主客逆転の発想は、すでにビッグデータ処理などで使われている実績がある。2010年頃より活用が始まった大規模分散処理フレームワークの「Apache Hadoop」がそうだ。Hadoopでは、大量のデータを複数ノードで構成された分散ファイルシステムにデプロイし、極力ローカルのプロセッサーで処理する仕組みを採る。Hadoopの分散ファイルシステムはいわゆるIAサーバーのDAS(Direct-Attached Storage)であり、HDDとセットでプロセッサーも付いているという形に位置づけられているのがHadoopの面白いところで、ここではプロセッサーとデータに主客逆転が生じている。

データ伝送に革新をもたらすシリコンフォトニクス

 The Machineでは、ネットワーク=データ伝送の経路に関してもさまざまな革新を想定している。シリコンフォトニクス(Silicon Photonics)の活用もその1つだ。現在主流となっている、銅線上を電気信号の形でやりとりする伝送方法は、長距離での減衰問題などもあって電力消費が意外と大きい。そこで、距離による減衰がほとんどない光信号を使ったデータ伝送の適用範囲をより広げる計画を進められている。The Machineではプロセッサーとメモリとの間をシリコンフォトニクスで接続することも想定されている。

 現時点でのシリコンフォトニクスの弱みは、データ伝送を光信号で行ったとしても、演算処理等は電気信号のままなので、光と電気の信号変換が両端で発生することだ。メモリ上のデータを光信号に変換して送出し、プロセッサーの手前で再び電気信号に戻す形になる。当然、こうした変換にはロスが伴い、短距離では光信号を用いるメリットを変換ロスが上回る可能性がある。そのため現状でのシリコンフォトニクスの活用は長距離伝送が必要な場面に限られそうだ。

 ただし、HPEの研究所では光信号をそのまま使って演算を実行するプロセッサーの研究が継続されているという。同社には、製品開発に直結するR&Dを担う開発ラボや各事業部の開発部門のほかに、より長期的なR&Dとして基礎研究を手がけるHPE Labsや中央研究所が置かれている。近年は、IT業界の大手でもこうした基礎研究部門を維持しているところはごく限られて、貴重な存在と言える。The MachineはHPE Labsで推進されているプロジェクトだが、光コンピューティングに関する研究も継続されているという。

次世代不揮発性メモリやメモリファブリックも実用化へ

 図2はメモリ主導型コンピューティングのメリットをまとめたものだ。メモリ主導型コンピューティングの実現に向けて実用化が期待される技術はほかにもある。HPEは、ストレージと主記憶の両方の役割を兼ねる大容量の次世代不揮発性メモリ(SCM:Storage Class Memories、図3)や、メモリやプロセッサーなどを相互接続するための高速メモリファブリック「Gen-Z(ジェン・ジー)」などを構成要素として挙げている。

 Gen-Zは、92ビットアドレス空間を確保し、理論上の総容量は4,096YB(ヨタバイト。1YBは1000ZB〈ゼタバイト〉、EB〈エクサバイト〉の100万倍)である。データ爆発が盛んに語られる現在でも、全世界に存在するデジタルデータの総容量は数10ZB程度と見積もられている(2020年に44ZBに達するという推定もある)。つまり、Gen-Zは現時点での全デジタルデータを単一のメモリ空間内に保持できるだけのアドレス空間を確保しているということになる(図4)。

 また、Gen-ZではRDMAと同様の発想でOSやアプリケーション層の介在を排除し、リモートの不揮発性メモリからアプリケーションに直接データを渡す処理を行うことで低レイテンシを実現するアーキテクチャとなっている。そのため、この部分でも既存のメモリアーキテクチャに比べて大幅な効率/パフォーマンス向上が見込まれる。

図2:メモリ主導型コンピューティングのメリット(出典:日本ヒューレット・パッカード)
図3:次世代不揮発性メモリSCM(出典:日本ヒューレット・パッカード)
図4:高速メモリファブリックGen-Z(出典:日本ヒューレット・パッカード)

フラッシュ性能を最大化するNVMe

 メモリセントリックがネットワーク分野の革新をもたらし、データセントリックがストレージ分野に革新をもたらす。Gen-Zもある意味ではストレージを包含する規格と言えるが、市場の主流になりつつあるオールフラッシュストレージで新規格の採用が広がっている。

 最も注目されているのは、旧来のディスクインタフェースを介して接続するSSDから、PCI-Expressバスに直結するNVMeへの転換であろう。フラッシュメモリがエンタープライズ市場で使われ始めた当初、SSDに対してローフラッシュ(RAW Flash)の呼称で高性能がアピールされていたが、当時の市場はSSDに軍配を上げた形だ。

 しかし、SATAやSASといったHDDを前提に設計されたインタフェースではフラッシュ本来の性能を引き出せないことに違いはなく、その後、標準規格としてNVMe(Non-Volatile Memory Express)が策定され、製品化が広がり始めたところだ。現時点では、一部のオールフラッシュストレージ製品が内部でNVMe接続のフラッシュを活用している段階だが、今後NVMe-oF(NVMe over Fabric)によってネットワーク経由でもより高速なアクセスを実現していくことが目指されている。

SDSやHCIの登場でEthernetが“復権”

 同時に、ストレージネットワークのEthernet化が着々と進みつつあるのも見逃せない動向だ。従来は、ストレージファブリックとしてはFC(Fibre Channel)が主に使われていたが、HDDやSSDを内蔵した複数のIAサーバーを仮想統合して分散型ストレージプールを構成する、いわゆるSDS(Software-Defined Storage)が登場した。このSDSにより、ストレージ接続とサーバー接続の区別がなくなり、同じEthernetで統一的に扱う形態が広まっていった。

 SDS単体では、様子見していたユーザーも多かったようだが、導入・拡張の容易さや運用効率の高さで人気を博したハイパーコンバージドインフラ(Hyper-Converged Infrastructure:HCI)が内部のアーキテクチャとしてSDSを採用していたことで、結果的にSDSが広まり、FCからEthernetへのシフトを後押ししたとも考えられる。

 FCをサポートするベンダーが限られてきたのに対し、Ethernetは長きにわたって定着した業界標準規格であり、FCを置き換えるべく高速化の取り組みも活発化している。かつては速度でも信頼性・安定性でもFCのほうが優秀と評価されていたことを考えると隔世の感がある。今後、データセンターの内部ネットワークは25Gbps以上の高速Ethernetで統一される可能性があることに留意しておきたい。

ITインフラの「モジュール化」のメリット

 ITの世界では「モジュール化」の例がさまざまな分野で多く見受けられる。昨今では、インテルがラックスケールアーキテクチャ(Rack-Scale Architecture)に基づいてサーバーを構成するプロセッサーやメモリ、I/Oモジュールなどを“分解”し、それぞれの技術革新のタイミングに合わせて個別にアップデート可能なように工夫している。

 HPEは「コンポーザブルインフラ」の名称で同様のアプローチを採る。製品化の第1弾である「HPE Synergy」は投入時期も早かったこともあり、この分野の代表的な製品として知られている。

 一方、2018年9月12日に国内発表されたDell EMCの「PowerEdge MX」(写真2)もユニークなアーキテクチャを採用している。外見的には従来からあるブレードサーバーのデザインに見えるが、シャーシ/エンクロージャの内部にはファブリックやバックプレーンと言ったモジュール間の相互接続のための仕組みを搭載していない。

 ではどうするのかというと、前面スロットから挿入したサーバーやストレージの各モジュールは背面にワンタッチコネクタが装備されており、そのコネクタが、背面側からセットされるEthernetスイッチのポートに直接刺さるようになっている。データセンターでの運用負荷を考えて前面挿抜で、ワンタッチで接続が完了することを重視したという。

 このデザインのポイントは、シャーシのバックプレーンのパフォーマンスがボトルネックとなって製品が陳腐化するのを避けられる点だ。より高速なネットワーク規格に対応するには、スイッチを交換する必要があるものの、逆に言えばモジュール単位のアップデートで従来以上の長期間の運用が可能になるわけだ。

 Dell EMCのアプローチは、内部接続に特化した専用インタフェース、Ethernet接続ですべてをまかなう方向性、独立拡張を可能にするインフラ構成要素のモジュール化など、ここまで見てきたITインフラのトレンドを網羅したかのような製品設計になっていると言える。

 Dell EMC PowerEdge MXの標準構成価格は1545万円超と、気軽に導入できる価格帯ではないが、運用効率の高さや将来的な投資保護の可能性などを考えれば、特に大規模なデータセンター環境では検討の価値がありそうだ。

写真2:デル/EMCジャパンの「Dell EMC PowerEdge MX」(出典:デル/EMCジャパン)

FPGA――用途特化処理ニーズへの取り組み

 x86プロセッサーがAIやマシンラーニング/ディープラーニングの分野でGPUに圧倒されていることはPart1でも触れた。プロセッサーにはそれぞれのワークロードに対する向き不向きがあり、どんな処理でも高速にこなせる万能型の高性能プロセッサーというものは実現できそうにない。

 x86プロセッサーは、PCで稼働させるビジネスアプリケーションや部門サーバーでのワークロード処理を念頭に発展してきたアーキテクチャであり、そうした用途で使うかぎりその優位は簡単にはくつがえらない。だが、大規模な並列演算が有効なAIなどのワークロードではGPUに凌駕されているというわけだ。

 市場で圧倒的なシェアを誇るx86プロセッサーであっても万能ではないことから、x86プロセッサーが不得手とする処理を高速にこなせるプロセッサーも必要、ということでインテルが取り組んだ分野の1つがFPGA(Field Programmable Gate Array)ととらえられる。FPGAは特定のワークロードに特化した処理を高速に行うチップを少量生産するような用途で有利だからだ。

 FPGAは、ユーザーがHDL(Hardware Description Language:ハードウェア記述言語)によって記述した回路を実装して利用できる集積回路で、もともとは試作用途や少量生産のチップを実現するために利用されていたものだ。インテルのような大量生産型のメーカーとはあまり縁がないようにも思われていたが、2015年にFPGA大手の米アルテラ(Altera)を買収し、事業を獲得した。

 2015年と言えば、すでにムーアの法則の維持が困難であることが明らかになっていたタイミングでもあり、インテルとしてもx86プロセッサーの性能向上を従来同様に継続する以外の新たな選択肢として、FPGAに注目したという事情があったと推察される。

 このほか、IoTなどの分野を中心にARMプロセッサーの利用も広がっているが、ARMのライセンスコスト負担を回避したいという理由からか、一部のベンダーの中に、米カリフォルニア大学バークレイ校で開発プロジェクトが始動し、オープンソースライセンス(BSDライセンス)に基づいて公開されるRISCプロセッサーアーキテクチャ「RISC-V」の製品化に取り組む企業も出てきている。

 現状ではまだトレンドというほどの動きにはなっていないが、用途に応じてそれぞれ適切なプロセッサーを設計・開発して活用するという流れが実現するようなら、RISC-Vの存在も無視できない規模に拡大する可能性があるだろう。

写真3:インテルのFPGA「Stratix 10」。FPGAへの取り組みで用途特化処理のニーズにこたえる(出典:米インテル)

クラウドで重要度が増すサーバーレスやコンテナ

 本特集はハードウェアの話題がメインとなったが、ソフトウェア側での動向も確認しておきたい。

 オンプレミス型のソフトウェアのライセンス販売からクラウド/SaaS型のサブスクリプションモデルへの移行が順調に進む一方で、クラウド環境でのサービス提供に最適化されたソフトウェアアーキテクチャの標準が固まりつつある。

 具体的には、オンプレミスで活用され、クラウドに活躍の場を広げた仮想化技術が相変わらず広く利用されているものの、ユーザーが直接運用するのはさらに抽象度を高めたコンテナ環境にシフトする傾向が顕著になってきている。

 サーバーレスアーキテクチャと呼ばれる、コード実行時間を基準とした利用モデルも市場に受け入れられ、クラウド上のさまざまなサービスと連携することで、より使いやすい環境へと進化している。

 ソフトウェア業界では長年求められてきた「再利用可能なコンポーネント化と、その組み合わせによるサービス実装」が、コンテナ技術の活用やサーバーレスの実用化によって、とりあえずクラウド環境においては現実的な運用レベルにまで落ちてきた感がある。

 一方で、エンドユーザー向けのアプリケーション/サービスの実装では、利用端末としてPCよりもスマートフォン等を想定すべき傾向が強まっていることもあり、よりシンプルで軽量なアプリケーションの開発が求められることになるかもしれない。

 スマートフォンの高性能化/高機能化は年々着実に進行しているが、画面サイズや物理キーボードやマウスによるインタフェースといった要素がPC並みになることはなさそうなので、今後はPCよりもスマートフォンで利用することを想定したソフトウェア開発が求められることになりそうだ。開発者のスキルセットの切り替えも含め、対策を講じておくべき問題と言えよう。