クラウド&データセンター完全ガイド:特集
最適化に向かうデータセンターファシリティ
クラウド大競争時代「日本のデータセンターの生きる道」[Part2]
2016年10月21日 18:00
クラウド大競争時代「日本のデータセンターの生きる道」
[Part2] Data Center Facility
最適化に向かうデータセンターファシリティ
この10 年でデータセンターファシリティのありさまが大きく変化した。ITシステムの急速な発展に省電力といった環境要件も加わり、データセンターの設計が根底から変わっていった。現在、変革が一段落して課題の中心はよりきめ細かな最適化の実現にある。以下、その潮流を追った。
要件とコストのバランスが変化
かつてのメインフレーム時代のデータセンターは、まず高信頼性や堅牢性が第一で、効率やコスト削減については「求められる信頼性/堅牢性/セキュリティレベルを満たしたうえで、可能な範囲で」という一種の努力目標にとどまっていた。いわば、「金に糸目は付けない」という性格の、きわめて重要かつ特殊なファシリティであると位置づけられていた。
銀行などの金融機関の基幹業務システムに関しては、現在でもこうした事情は特段変化していないと思われる。だが一方で、数的には圧倒的に多数を占めるまでに成長した、いわゆる“ネット系ビジネス”のためのサーバー群では、金融機関と同等レベルの信頼性までは要求していないし、運用コストに関しても同等レベルの支出を想定してはいない。
昔のデータセンターはきわめて高レベルの信頼性を要求する限られたユーザーが対象だった。それがITの普及によってデータセンターの利用者もより一般的なビジネスユーザーまで拡大し、その結果、信頼性などの要件とコストのバランスも以前とは様変わりしてきている。当然ながら、データセンター事業者側でもこうしたニーズの変化および多様化に対応していく必要がある。
コスト削減といっても、単純に品質を下げて「安かろう悪かろう」という形にすることを望んでいるユーザーはさほど多くはないだろう。基本的には、「品質はより高く、コストはより低く」という相対的な高コストパフォーマンスの実現が望まれているわけだ。このためには、データセンター側では効率の改善によって無駄なコストを極限まで省いていくことが求められる。これは、ファシリティ設計や建設といった初期コストから日々の運用監視・管理のランニングコストまで多岐にわたる取り組みとなる。
電力コスト削減の取り組み
データセンターの運用コストの中でも特に比率が高いのが電力コストだ。日本特有の事情として、海外諸国に比べて電力品質が高い一方で相対的に高コストという面もあるが、そもそも電力効率の向上に対する取り組みは米国などで先行して始まっており、世界的に共通する問題認識ではある。
日本では東日本大震災の影響もあった。震災直後には不足する給電量に対応するために首都圏でも計画停電などが実施されたが、企業や産業用の電力供給は最終的に確保されたため、データセンターが直接稼働停止に追い込まれる事態は起こらなかった。とはいえ、このとき「将来にわたって必要な分だけの高品質な電力が確実に供給されるものという前提を置くことはできない」という認識が広がったことは確かだ。震災を機に自家発電設備や燃料備蓄量の見直しを行った事業者も少なくないのではないだろうか。そうした対策に先立ち、まずは日々の運用で電力消費量そのものが削減できれば非常時に備えた対策の負担も軽減できて望ましい。
先進データセンターにおけるPUEの値引き下げはほぼ限界レベルに
データセンターの電力効率向上の取り組みに関しては、一般にPUE(Power Usage Eff ectiveness)指標が用いられる。PUEは、データセンターの総電力消費量がIT機器の電力消費量に対してどのくらいの量かを図るためのもので、IT機器が消費した分以外に一切電力が使われていない場合、1.0になる。事業者にはこのPUE1.0の状態を極限とし、運用努力でいかに1.0に近づけていくかが問われるわけだが、ここで問題になるのは冷却のための空調システムの電力消費量だ。館内の照明などはそもそも莫大な電力を消費するわけでもないので、不要な時にはこまめに消灯するといった努力で削減したとしても、その節約による寄与には限界がある。
一方で、IT機器を冷却するための空調システムの電力消費量は、場合によってはIT機器自体が消費する電力量と同等レベルにまで達することもあり、データセンターの運用コストの大きな部分を占めている。ここを節約できればPUE値を大幅に引き下げられるし、運用コストも下がるため、さまざまな取り組みがなされてきた。
日本国内でも、通常運転時には空調設備を一切運転せず、外気による自然冷却だけで運用することを前提とした設計とすることで、PUE値のドラスティックな引き下げを実現したデータセンターが相次いで稼働開始した。よく知られているのは、さくらインターネットが運営する石狩データセンター(2011年11月開所)や、IDCフロンティアの白河データセンター(2012年10月竣工)などだ(写真1・2)。
これらは世界でも最先端レベルの取り組みを行っており、PUE値はIDCフロンティアの白河データセンターでは設計時点の目標値として1.2以下、さくらインターネットの石狩データセンターでは運用開始後の実績値で1.1台といった驚異的な効率を達成している(写真3)。事実上、IT機器が消費する以外の電力は消費しない、いわば究極の高効率であり、もはやデータセンター側で実現できるこれ以上の効率向上策は存在しえないとまで言えるレベルである。
このように、データセンターの高効率化に関しては、「すでにベストプラクティスは出尽くした」と言う声もあり、一種の踊り場的な状況にあると言える。
コストバランスの見直しが必要
外気冷却を全面的に活用した高効率データセンターは、設備の特性上、郊外型の大規模なファシリティに限って適用できる高効率化手法だと位置づけられる。ただし、先に触れた石狩データセンターや白河データセンターのような先進データセンターの実績を踏まえて、同様の高効率データセンターが次々建設され、主流となってきたのかと言えば、現実は必ずしもそうではない。そもそも、首都圏を中心に都市型データセンターの需要は根強く、郊外型のデータセンターへのシフトが急激に進行する状況ではないうえに、高効率を実現するためのコストが無視できないという要因もある。
効率を高めるのは、そもそもは運用コストを下げるためだったはずだが、極限を追求するとなると逆にコストがかさむという事情もある。外気冷却を全面的に採り入れるためには、それに見合った構造の建物を建設する必要があるなど、初期コストが増加することは避けられない。
東日本大震災の直後には、需給の逼迫から国内の電力料金がさらに引き上げられる可能性も取り沙汰されたが、現実には急激な値上げは実施されておらず、現状では高効率を実現するためのコスト増を電力消費量の削減で埋め合わせることは難しい状況だ。
こうした事情について、データセンターの建築に豊富な経験を持つ大成建設に尋ねたところ、「やはり、PUEをあるレベル以下に引き下げるのはとても難しい」との答えが返ってきた。上述のように、すでにベストプラクティスはほぼ出そろっており、その意味では「どうすればPUE値1.1台を達成できるのかは分かっているのだが、そこに要するコストとのバランスを考えると、現状でPUEを極限まで引き下げることにのみ注力するのは投資対効果という点で若干の疑問がある」(大成建設 設計本部 設備設計第一部長 出野昭彦氏)とのことだ。こうした状況を踏まえて同社は、今後、しばらくは無理のない範囲でPUEを引き下げつつ、総合的な投資バランスが維持された設計を望む事業者が主流を占めるだろうと見ている。
ファシリティ視点でデータセンターを見た場合、PUEが極限まで低い高効率データセンターというのは大きな差別化ポイントではある。しかしながら、ビジネスとしての観点では、PUEを下げるために必要な投資額に見合う収益が得られるかどうかが問題で、現状ではなかなか難しいと言わざるをえないだろう。
ファシリティとIT機器の統合管理
では、今後データセンターファシリティではどのような点に注目して設計が行われていくことになるのだろうか。この点に関しては現時点では業界の合意のような形で「こういう方向に進んでいくであろう」という予測が確立されている状況ではなく、各社各様に研究を進めている段階だ。
高効率に次ぐ設計上の柱は何になるのか、現時点で明確にはできないのだが、大成建設では、重要な手がかりの1つとして「IT機器ベンダーなど、これまで以上に広範なパートナーとの連携」(出野氏)を指摘している。
例えば、従来のデータセンターはIT機器に対して“器”として機能するため、IT機器が要求する環境要件を満たすように設計された。しかし、コスト効率も含めた、さらなる最適化を考えるうえでは、IT機器とデータセンターをそれぞれ別個に考えるのではなく、最初から双方の密接な連携があれば、より高い次元の効率化が図れるのではないかという指摘だ。
具体的には、そもそもIT機器やサーバーが安定稼働するためにはどのくらいの室温が求められるのかという点に関しても、現状では十分に突き詰められているとは言えない。従来、IT機器の安定稼働のためには電力消費量は気にしないという状況だったときには、室温はおおよそ24℃以下、場合によっては20℃くらいで運用される例も珍しくはなかった。
しかし、現在主流のIAサーバーの場合はそもそも想定される運用期間が3~4年程度ということもあり、環境条件をもっと緩和しても問題ないということは以前から言われている。実際に現在販売されているIAサーバーの多くは、メーカーの環境指定として室温42℃以下という条件になっているものが増えている。つまり、24℃にまで冷却しなくてもサーバー側は耐えられるようになってきているのである。
これを踏まえて、データセンター側がマシンルーム環境の最適化をやり直せば、従来ほどのコストをかけなくても、空調システムの負荷を減らすことが可能になるかもしれない。こうしたファシリティとIT機器の統合管理は、DCIM(Data Center Infrastructure Management)という分野で取り組まれている(図1)。実際に運用される機器の特性やユーザーの意向にも依存する話ではあるが、1つの方向性として注目される動きだろう。
モジュール化の進展
高効率化と並び、4、5年前よりデータセンター関連の話題として注目を集めていたモジュール型データセンター(写真4)も、このところ特に大きな進展があるわけではない。
実証実験レベル、あるいは実運用施設としてコンテナ型データセンターの運用を行っている例は年々増えている段階だが、法規制面の問題などもあり、実現は容易ではなさそうだ。そもそもモジュール型のデータセンターが必要とされた背景には、最初から大規模なファシリティを建設するのでは初期投資が大きくなりすぎるので、必要に応じて段階的に拡張できるようにしておくことで対応するという考え方がある。必ずしもコンテナ型の外形が必須というわけではなく、さまざまなレベルのモジュール化がありえる。
そう考えれば、現在のデータセンターはすでに何らかの形でのモジュール化が採り入れられているのが普通であり、その意味ではモジュール化というアイデアはすでに受け入れられていると見てよい。
コンテナ型データセンターに関しては、最初期の輸送用コンテナの流用から、現在ではデータセンターとして最適なモジュールサイズの決定などの基礎研究がおおむね完了している状況だという。当初は、輸送用コンテナを流用することでコストダウンが図れると考えられていたが、縦横比などの問題で既存のIT機器用ラックを収容するために最適なサイズとは言えない。そのため、これを単位としたモジュール化には無駄も多くなる。
では、最適なモジュールサイズはどのくらいなのか、という点に関しては、いくつか候補が考えられているようだ。先の大成建設も検討を行っており、おおむね20ラック程度を1単位として段階的に増設する形が使いやすいだろうという結論が出ているとのことだ。ただし、実現にあたってはこのモジュールを建物として扱うか否かといった法的な問題も関係してくるため、実際にそのプランに基づいてデータセンターが建設された例はまだない。
コンテナ型データセンターに関しても、米国で当初研究が始まった当時は、大規模なイベントなど一時的に大規模な情報処理能力が必要とされるような場面に迅速に対応することが想定されていたものであり、ある意味で特殊な状況に特化したソリューションだと言える。モジュール化によるメリットはさまざまな形で活用を図る一方で、丸ごとそのままの形でのコンテナ型データセンターの建設は、こと日本国内においては近々に本格化するという状況にはないと思われる。
とはいえ、郊外型の高効率データセンターにしてもモジュール化を突き詰めたコンテナ型データセンターにしても、そうしたファシリティを必要とするユーザーがいればすぐにでも実用化できるだけの技術的な蓄積は出来ている状況だ。ユーザー側がどのようなファシリティを必要とするか、確実に予測できるとはかぎらない状況ではあるが、データセンター事業者側としては、どのようなニーズが寄せられたとしても、可能なかぎり対応できるような準備を整えつつユーザーの動向を注視する、といった対応にならざるをえないだろう。
使い勝手の向上を目指して
モジュール化/コンテナや外気冷却を活用した高効率データセンターなど、このところ設計レベルでの大きな変革が続いたデータセンターファシリティだが、現時点ではこれらに続く“次の波”は見えてきていない。一方で、こうした設計をより洗練させ、向上させていく取り組みは続いている。
大成建設は、2014年11月下旬に発表された第11回エコプロダクツ大賞(主催:地球・人間環境フォーラム エコプロダクツ大賞推進協議会)において「エコプロダクツ大賞推進協議会会長賞(優秀賞)」を受賞した。大賞に選ばれたのは同社の「ダクトキャッピング空調システム」だ。アイデアとしては従来から運用されているキャッピング(囲い込み)なのだが、キャッピングに利用する素材を一般的な膜や板といった薄いものではなく、箱状にしてこれをラック間にさし渡すように置くことでラック間のキャッピングと気流の通り道となるエアダクトの敷設を同時に行えるというものだ(図2)。
また、ダクトキャッピングに使用する箱状の「コルエアダクト」は、アルミニウム箔が施された段ボール製の素材でできた不燃性ダクトになっている。製造段階での環境負荷が低いうえに軽量で敷設も容易という特徴がある。コールドアイルの端に空調機を設置し、ダクトキャッピングでラックの上部をふさぐと同時にラック列の端まで冷気を効率よく導入し、コールドアイル上部から冷気を吹き下ろす形のエアフローを容易に実現できるという技術だ。
データセンターという、大電力消費施設に関連する製品/技術がエコプロダクツ大賞を受賞するという点にも隔世の感があるが、一応の頂点として示された高効率データセンターの効率に現実的なコスト負担の範囲内でどこまで近づいていけるか、という取り組みに対する解の1つだと評価してよいだろう。データセンターの建屋自体から専用設計で効率を追求するのはコスト面で難しくても、ラックの間に段ボール製のエアダクトを渡すのであれば実現可能、という場合は少なくない。このように、現実的なコスト負担でこれまで以上の高効率を実現する取り組みが今後も継続することが想定される。
また、別の例で、インテルが自社で利用しているデータセンターでは1ラック辺り40kVAを超える規模の超高集積を、外気冷却を主体に運用しているという話もある。これは、いわばスペース効率を最大化するための高効率化への取り組みとも言えるが、日本の一般的なデータセンターのラック辺りの給電量がおよそ4kVA程度にとどまっていることから考えると10倍以上の高密度実装を実現していることになる。
同時に、外気冷却を主体とし、冷却のための電力消費は最小限に抑えられているという。これが実現できるのは、プロセッサーメーカーであるインテルが自社利用のためのサーバーを運用するということで、環境基準を効率優先でギリギリまで詰めることができるからだろう。大成建設が指摘した「データセンター側とIT機器ベンダー側の密接な連携」と目指すところが同じだと言ってもよいかもしれない。
現実問題として、現在では大規模なクラウド事業者のデータセンターなど、ユーザー自身がデータセンターの設置/運営者となっている場合に高い効率が実現されている。これはある意味当然のことで、環境要件を下げてもそこに利害対立が発生しない環境であれば効率優先で突き詰めた運用環境を作ることができるためだ。一般のデータセンターがこうした環境で得られたノウハウを即導入することは難しいのだが、一定の時間差をおいて段階的に普及していくことは間違いないだろう。データセンターとしては、そうした最先端事例にも注意を払いつつ、将来に備えておく、という形の取り組みを続けるほかなさそうだ。