クラウド&データセンター完全ガイド:特集

ムーアの法則の終焉と「次」を担うITインフラテクノロジー

ポストムーア時代のデータセンター(Part 1)

弊社刊「クラウド&データセンター完全ガイド 2018年秋号」から記事を抜粋してお届けします。「クラウド&データセンター完全ガイド」は、国内唯一のクラウド/データセンター専門誌です。クラウドサービスやデータセンターの選定・利用に携わる読者に向けて、有用な情報をタイムリーに発信しています。
発売:2018年9月29日
定価:本体2000円+税

プロセッサーの急速な性能向上を示す指標として有名なムーアの法則。だが、近年は半導体プロセスの微細化が極まり、いよいよそのペースも限界を迎えつつあるようだ。この法則によって彩られた時代が終焉を迎えるとして、次にどのようなコンピューティング技術の革新が起こっていくのだろうか。「次」のITインフラやデータセンターのありさまを展望してみたい。 text:渡邉利和

“プロセッサーの時代”の終焉

 半導体業界で長年引き合いに出されてきたムーアの法則(Moore's law)。法則と言っても物理的な根拠に基づくわけではない。いわゆる“経験則”であり、これまでの半導体、プロセッサーの進化がそうなっている事実に気がついたというものだと言える。また、有名になりすぎて、メッセージとして1人歩きを始め、事実の指摘から開発目標に主客が転倒した感もあった(写真1)。

 特に、提唱者のゴードン・ムーア(Gordon E.Moore)氏が創業に携わった米インテル(Intel)がこの法則を強く支持し、まるで法則を成り立たせるために研究開発を続けているかのようにも見える時期もあった。だが、そのインテルをもってしても、すでに法則で語られた半導体プロセスの微細化のペースを維持することが困難になっている。

 ムーアの法則は、正確には集積回路の集積度推移について語ったものであり、プロセッサーの性能向上を直接的に意味しているものではない。だが集積度がどんどん高まっていった結果、プロセッサーの処理性能が目覚ましく向上したのは事実だ。

 市場では、ムーアの法則が示すペースでプロセッサーの性能が向上して行くものとみなされ、長年、その期待を裏切らない性能向上が実際に達成されていた。それで同法則が広く信奉され、逆にそれが成立しなくなりだしたため、ムーアの次の進化に注目が集まり始めた。ポストムーアとはつまり、プロセッサーが最重視される時代が終わるということでもある。

 もちろん、HPC(High Performance Computing)/スーパーコンピュータの世界が示すように、コンピューティングの性能を突き詰めていけば、プロセッサー(コンピュート)、ストレージ、ネットワークの3大要素がバランスよく高性能を発揮する必要がある。この分野の知見がいよいよビジネスコンピューティングにまで及びつつあるということだろうか。

写真1:半導体/プロセッサーの製造技術はたゆまぬ革新でムーアの法則を裏づけた(写真:Getty Images)

データセントリックへの重点移動

 プロセッサー処理性能の今後の劇的な向上が望みにくくなった現在、企業やユーザーの関心は増え続けるデータに向けられている。データ爆発が話題に上るようになってからずいぶん経つが、実際のデータ爆発は、宇宙の歴史におけるビッグバンのような特別な出来事を指すのではなく、毎年日々生じていることだ。

 ビッグデータ、マシンラーニング(機械学習)、ディープラーニング(深層学習)、AI、IoTといったこの10年のIT業界のキーワードは、いずれも日々生成される大量のデータを活用して有用な知見を得るためのテクノロジー/手法である。データが増え続ける一方で、処理能力の伸びが頭打ちのままであればそのうちに処理が追いつかなくなる。そのため、何らかの手段で処理能力を向上させる必要があるわけだ。

 データ処理を重視する今の状況は、「データセントリック(Data Centric)」という呼び方がされるようになっている。デジタルトランスフォーメーションの推進機運や、AIやマシンラーニング/ディープラーニングが実用化段階に入ったことと、IoTなどによって従来は困難だったデータが取得しやすくなってきたこともデータセントリックの推進要因だ。

AIやML/DLニーズで台頭したGPU

 データセントリックを推し進め、大量のデータ処理に対応するために、さまざまな分野で技術革新が起こっている。上述したようにインテルが主導したx86プロセッサーの性能向上は鈍化傾向にあるが、AIやディープラーニング、大量のデータ処理の文脈で一気に存在感を高めたのがGPU(Graphics Processing Unit)だ。

 GPUは、もともとは画面表示を高速化する目的を持つ画像処理専用のアクセラレータチップという位置づけで、ハイエンドゲーマーが活用したり、グラフィックスワークステーションなどで使われたりしていた経緯がある。画面を構成する膨大な数のピクセル(Pixel:画素)を同時並行で毎秒数十回という速度で描き変えられる処理能力を、画面描画以外の一般的なコンピューティングに応用したのがGPGPU(General Purpose Computing on GPU)であり、この活用がマシンラーニング/ディープラーニングの処理を高速化するうえで効果的だったことから評価を高めていった(図1)。

図1:エヌビディアが示す、CPUコンピューティングの性能限界とGPUコンピューティングの伸長(出典:米エヌビディアYouTubeチャンネル「NVIDIA Volta GPU Architecture 」)

 この分野・市場で先行し、デファクトスタンダードとしての地位を固めつつあるエヌビディア(NVIDIA)は、製品ラインアップでもAIやディープラーニング処理向けのコンピューティングエンジンなどを製品化し、AI分野のリーダー企業というメッセージを打ち出している(写真2)。

写真2:エヌビディアのハイエンドGPU「NVIDIA Tesla V100」(出典:米エヌビディア)
図2:GPUの進化はAIやディープラーニングの普及に大きく貢献している(出典:米エヌビディアYouTubeチャンネル「NVIDIA Volta G PU A rchitecture」)

フラッシュメモリがコンピューティング全体の性能を引き上げる

 ストレージ分野でも急激な変革が進行中だ。発端となったのはオールフラッシュストレージの製品化である。SSD(Solid State Drive) が従来のHDDを超える高速メディアとして登場した時点で、将来的にはSSDがHDDを置き換える可能性は見えていたが、企業情報システムにおけるフラッシュストレージの普及は大方の予想よりも早いタイミングで進んだ。

 エンタープライズストレージ市場で長年、中心的存在の大手ベンダー各社もフラッシュへの適合を迅速に行った。その結果、早期にフラッシュストレージの革新性を打ち出した新興ベンダーの多くは姿を消すなど厳しい競争環境にはなったが、データセンターでのフラッシュストレージの浸透は着実に進んでいる(写真3)。

写真3:Dell EMCのハイエンドストレージ「VMAX」もオールフラッシュに(出典:Dell EMC)

 フラッシュメモリの登場初期には、読み書きの繰り返しによる摩耗/劣化(Wearing)などユーザー側での警戒感も見られたが、HDDでは実現できないI/O性能を重視する用途が増えて採用が広がっている。

 そして、当然の話ではあるが、ストレージが高速化することでシステムの処理能力が向上する。つまりは、プロセッサーの性能向上に頼るのではなく、他のコンポーネントの性能向上によってもシステム全体の処理性能を高められるということが明確に意識され始めたのである。

 こうしたトレンドは、単純にHDDベースのストレージをオールフラッシュで置き換えるという選択にとどまらず、これまで主流だったコンピューティングアーキテクチャをさまざまなレベルで見直していくという動きにつながっている。

インテルのポストムーアアプローチ

 ポストムーアと公言はしないにせよ、ムーアの法則を牽引したインテル自身も次世代のアーキテクチャの研究開発に余念がない。

 インテルは2018年5月30日、「Optane DC 不揮発性メモリ(Persistent Memory)モジュール」を発表した。技術的な詳細は明かされていないが、フラッシュとは異なる技術に基づく不揮発性メモリで、フラッシュよりもむしろDRAM(Dynamic Random Access Memory)に近いパフォーマンスを発揮できる点が特徴となる。

 同年8月8日にインテル本社内で開催されたプライベートイベント「Intel Data-Centric Innovation Summit」では、同社データセンターグループのエグゼクティブバイスプレジデント兼ゼネラルマネジャーのナヴィン・シノイ(Navin Shenoy)氏がホスト役となり、データセンター分野における同社の最新の取り組みが紹介された。そこではOptane DCと、フラッシュメモリ新製品の「Intel 3D NAND SSD」(QLC NAND採用モデル)に焦点が当てられた。

メモリ/ストレージのギャップを埋めるOptane DC

 Optane DCは、メモリ用途を想定したDIMM型の「Optane DC Persistent Memory」(写真4)と、ストレージとしての用途を想定した「Optane DC Solid State Drive」の2形態のラインアップとなっている。Optane DCの特徴として、DRAMよりも容量単価が安価で、フラッシュよりも高速というところから、従来のメモリ/ストレージ階層のギャップを埋める役割が期待されている(図3)。

 現在、ストレージアーキテクチャとして、ホットティアとしてDRAM、ウォームティアとしてSSD、コールドティアとしてHDD/テープストレージという3階層が一般的だが、まずOptane DCをDRAMとSSDの間に配置する。DRAM寄りのレイヤに配置されたOptane DC Persistent MemoryはDRAMの容量を拡張すると同時に、不揮発性という新たな付加価値をシステムにもたらす。

 一方、SSD側に配置されるOptane DC Solid State Driveは、既存のSSDに対するキャッシュ/アクセラレータ層として機能することになる。さらに、最初にコンシューマー向け製品として投入される予定のIntel 3D NAND SSDは、QLCを採用した記憶密度の高さがポイントで、一般的なDLC/TLCが1セルあたり2ビット/3ビットのデータを記録できるのに対し、4ビットのデータを記録できるものだ。

 最初に投入される製品がコンシューマー向けで、エンタープライズ/データセンター向けでないところから、信頼性や耐久性の面でまだ煮詰め切れていない点が残っている可能性があるが、インテルのアーキテクチャ上は、すでにこのQLCフラッシュをSSDとHDDの間のレイヤとして位置づけ、コストパフォーマンスのバランスにすぐれたストレージとして活用する算段だ。

写真4:Intel Optane DC Persistent MemoryのDIMM型モジュール(出典:米インテル)
図3:メモリ/ストレージ階層におけるOptane DC/3D NANDのポジショニング(出典:米インテル)

不揮発性メモリがもたらす変革

 不揮発性メモリがシステムに標準的に採用されるようになると、運用が根本的に変わってくる可能性がある。現在のコンピュータは、電源が失われた場合にはメモリの状態がすべて喪失することが前提となっている。UPSなどの非常電源設備はメモリ上の情報をストレージに待避するための時間を稼ぐためのものだ。DRAMを主体するコンピュータは、一瞬でも電源供給が途絶えてはいけない、という前提で運用環境が考えられているものだ。

 不揮発性メモリは名称のとおり、情報が揮発しない。電源供給が途絶えても情報が喪失しないメモリだ。フラッシュ“メモリ”と呼ばれ、かつ電源なしで情報を保持できるデバイスであるため、現時点ではこれが不揮発性メモリのように見えるかもしれないが、フラッシュの場合は読み出し速度はまだしも、記録されている情報の消去/書き換えに時間を要する。そのため、DRAMをそのまま置き換えるような用途に使うのは無理がある。

 これまでもさまざまな不揮発性メモリが実用化を目指して研究開発されてきたが、アクセス性能や容量、コストなどの問題で、実用段階までこぎ着けたものはほぼない。今回のOptane DCに関しても、年内は限られた一部顧客向けの出荷にとどまり、一般提供は2019年になると言われている(当初言われていたスケジュールからは遅れているようだ)。また、インテルが技術開発を共同で行ったマイクロン(Micron Technology)との提携解消が発表済みであり、実際に出荷されるまでは評価しにくい。

 製品としてのOptane DCがどうなるかという点はさておき、長らく安定していたx86/IAサーバーアーキテクチャのうち、メモリ階層に変化の兆しが見えてきた点は興味深い。1990年代から2000年代にかけては周辺をすべて置き去りにしてプロセッサーだけが突出して高速化していたので、アーキテクチャ全体の見直しを行うような取り組みはあまり目立たなかった。それが今日、プロセッサーの高速化にだけ頼るわけにいかなくなり、このような技術革新が生まれることになったわけだ。

 プロセッサーの高速化はコア数の増加によって実現されることが主流となったが、コア数の増加は並列性の向上であり、当然ながらワークロード自体の並列性が十分でないと期待した効果は得られない可能性がある。言い換えれば、現状はすでに「ワークロードの特性に応じて適切な高速化手法を選ばないといけない」状況になっているのであり、すでにポストムーアの流れは現実の問題となっていると言える。

データセンターに求められるレジリエンシー

 本稿では、ムーアの法則やプロセッサーの時代の終焉から、GPUやフラッシュストレージ、不揮発性メモリといったデータセントリックなコンピューティングへのシフトを概観した。最後に、ファシリティも含めたデータセンター全体のアーキテクチャについても方向性を確認しておこう。

 2018年9月6日未明に北海道胆振地方中東部を震源とする地震が発生した。厚真町で震度7を観測したほか、沿岸部の火力発電所が被害を受けて稼働停止したことで大幅な電力供給不足に陥り、設備保護のために連鎖的に各発電所が稼働停止することで北海道全域が停電するという、いわゆる“ブラックアウト”が発生した。

 北海道石狩市には郊外型の高効率データセンターとして、さくらインターネットの石狩データセンターが建設/運営されていることはよく知られている。同社の発表によれば北海道電力からの特別高圧送電が停止したため、自家発電設備によって正常に稼働継続したものの、UPS設備の障害によって一部サービスに数時間の停止が発生したという。数日で給電が再開されたようだが、同社の状況説明を読むと、非常用発電設備の燃料を使い切る状況も想定し、燃料確保に奔走するなど、現場での緊迫した状況が伝わってくる。

 データセンター分野では、PUEを高めるために開放性の高い建屋にして、外気冷房で運転するファシリティが注目された時期もあった。大規模な自然災害が各地でたびたび大きな被害を出している昨今では、それなりの確立で起こりうることを踏まえて、データセンターのファシリティとITインフラの両面でレジリエンシーを高めて備える必要があるだろう。

Advanced Data Center:技術革新ペースの異なるコンポーネントを分離――インテル本社の先進データセンター

text:渡邉利和

 インテル本社(米カリフォルニア州サンタクララ)敷地内のデータセンターは、もともとは半導体工場として使われていた建物を社内ITサービスのためのデータセンターに転用したもので、同社の最新のデータセンターテクノロジーの実験場的な役割も持っている。

 現在では、特注の60Uサイズのラックに対して43kWの給電能力を確保する高密度データセンターでありつつ、自然冷却を基本とした高効率運用で、PUE値は1.06を達成している。

 筆者が2年前に訪れた際とは、コールドアイルの温度設定が変わっていた。現在のコールドアイル温度は華氏約100度(約38℃)となっており、体感的には一般的なデータセンターのホットアイルにいるような感じだ。最近のサーバーやIT機器の稼働保証温度が上昇していることを受けて、「無駄に冷やすのは止めた」(同社担当者)ということだ。

 また、インテルはIT機器の多くを自社で設計/製造できる点を生かし、独自のコンポーネントアーキテクチャを実現している。例えば、サーバーのマザーボードはかつてのような大きな基板ではなく、プロセッサーとI/Oが分離され、コネクタを介して接続する構造を採用する。これは、技術革新のペースが違うパーツを分けることでそれぞれを適切なタイミングで更新可能にしてコスト効率を上げ、運用負荷を軽減するための取り組みだ。

 今後のサーバーやIT機器の販売数は、ユーザー企業よりもクラウド/データセンター事業者が中心になっていくことが予想される。そのため、こうしたコンポーネント型のデザインが事業者の間で定着していく可能性はあるだろう。

図A:インテル本社データセンターアーキテクチャの変遷(出典:米インテル)