クラウド&データセンター完全ガイド:特集

主要ストレージテクノロジーの導入メリットを確認する

データセンターの要[ストレージ]の進化ベクトル[Part2]

データセンターの要[ストレージ]の進化ベクトル
[Part2] Technology Focus
主要ストレージテクノロジーの導入メリットを確認する

ストレージは元来、他の分野に比べて技術革新が起こりやすい分野だと言えるが、ユーザーがタイミングよくメリットを享受できるかは別問題でもある。本稿では、データセンター/エンタープライズ向けストレージ分野で進化の著しいいくつかの技術を取り上げ、各技術を選ぶことで得られるメリットを明らかにしてみたい。

フラッシュへの移行は本当に今か

 Part1で紹介したように、今はHDDからフラッシュ/SSD(Solid State Drive)への移行が本格的に始まったタイミングである。このことは世界レベルで共通認識になりつつあると言える。国内外のストレージベンダーなどもこぞって「2016年はフラッシュストレージ元年」といった発言をしている。

 とはいえ実際、ユーザーのフラッシュの受容状況はどうなっているのだろうか。この点について、国内大手ディストリビューターとして広範なストレージ製品を扱うネットワールドに市場の実感を尋ねてみた。同社ストラテジック プロダクツ営業部 課長代理の平松健太郎氏およびマーケティング本部 インフラマーケティング部 部長の佐々木久泰氏に、率直かつ詳細な情報をうかがうことができたので、ここで紹介していきたい。

 ネットワールドは、従来からエンタープライズ市場向けストレージで大きな存在感を誇っているEMCやネットアップ(NetApp)、IBMなどの製品を販売してきた。近年では、フラッシュストレージの台頭を牽引する新興勢であるティントリ(Tintri)やニンブル・ストレージ(Nimble Storage)、ピュア・ストレージ(Pure Storage)の製品も取り扱いを開始している。したがって、現在のトレンドを牽引する主要ストレージ製品群を横並びで比較し、用途に応じて最適な製品を選べるというユニークなポジションに立っている(図1)。

図1:ネットワールドが取り扱う主要ストレージベンダー/製品(出典:ネットワールド2016年6月現在)

フラッシュ導入の最大障壁の書き込み回数制限がほぼ解消

 市場のトレンドは、ディスクアレイをすべてSSDやローフラッシュ(Raw Flash)で構成するオールフラッシュストレージ(写真1)に向かっている。ネットワールドも「2016年はオールフラッシュの年(2016 Year of All-Flash)」になるとしている。

写真1:ピュア・ストレージのオールフラッシュストレージ「FlashArray//m」(出典:ピュア・ストレージ・ジャパン)

 その背景の1つとして指摘されたのが、ユーザーの心理的バリアの解消だ。フラッシュストレージの登場初期によく問題視されたのが書き込み回数制限に関する懸念だ。フラッシュメモリは構造上データの書き込み回数に制限があり、制限を超えるとセルが使用不能になる。感覚的な表現をするなら「使い続けると摩耗するデバイス」というイメージになるだろうか。

 結果として、フラッシュメモリを利用するストレージには寿命があるうえ、いつ寿命に達するかは書き込み頻度によって変動する。そのため、使い方によってはすぐに寿命が尽きてしまうのではないかという不安を感じるユーザーが少なくなかった。しかし、ネットワールドによれば、現在ではフラッシュストレージを選択する際に書き込み回数制限に関する懸念を持ち出すユーザーはほぼいなくなったという。

 理由として、最も大きな影響を与えているのはフラッシュメモリの進化であることは間違いないだろう。デバイスの摩耗問題自体は現在もなくなってはいないが、事実上、製品寿命が尽きる前にフラッシュメモリが所定の容量を大幅に割り込むようなことは起こらなくなっている。品質が安定したことで設計寿命に達する前に不具合を起こすようなことはなくなってきており、さらに低価格が進行している。このことで十分な予備を確保することが可能になっている。

 同時に、ソフトウェアによる制御も高度化しており、セルごとの書き込み回数をうまく平準化し、特定のセルに書き込みが集中しないようにするウェアレベリング(Wear Leveling:摩耗平滑化)技術がある(図2)。こうした工夫の積み重ねにより、現状のフラッシュストレージでは、一般的に想定される製品寿命(おおよそ10年程度か)の期間内に交換を必要とするような事態にはまず陥らないようになっている。実際にユーザー側での運用実績でも寿命によるトラブルが報告された例はほぼ聞かれないことから、心配する必要はないという認識が広まったものと考えられる。

図2:ウェアレベリングの仕組み(出典:TDK「SDG3Bシリーズ| TECH JOURNAL」https://product.tdk.com/info/ja/techlibrary/archives/techjournal/vol14_sdg3b/contents03.html

心理的障壁にコンシューマーデバイスも一役買う

 さらに、コンシューマー向けのモバイルデバイスでフラッシュストレージの利用が当たり前になっていることが、心理的バリアの解消に寄与しているのではないかという指摘もなされた。

 現在では、スマートフォンやタブレットはもちろん、ノートPCなどでもSSDなどを搭載するモデルが主流となっており、コンシューマー製品ではフラッシュストレージが当たり前という状況がすでにできあがっている(写真2)。こうしたユーザー側の利用経験でフラッシュに起因するトラブルが頻発しているようなら、「フラッシュメモリは信頼できない」という意識が植え付けられ、データセンターで運用するストレージシステムを選定する際に影響するということが考えられる。だが実態はむしろ逆で、普段フラッシュを活用している経験からそれに対する信頼感ができあがっているため、選定に不安を感じなくなっている、という状況だろう。

写真2:スマートフォンやタブレット、ノートPCではフラッシュ/SSDが当たり前となっている(出典:アップル)

 こうして、ベンダー側での品質向上の努力とユーザー側での受け入れ体制がちょうどかみ合った結果、今年がオールフラッシュストレージ元年と呼ばれる状況になったのだと考えられる。なお、ネットワールドにおける見積もり数をベースとした引き合いの比率はHDD対フラッシュでおおよそ8:2の割合になるという。現時点ではまだHDDがメインという状況だが、3割を超えれば存在感が無視できなくなるとのことで、フラッシュストレージはニッチの段階はとうに通過していると見てよさそうだ。

HDDストレージの現在の位置づけ

 フラッシュ/SSDが攻勢を強める中、従来のHDDにも変化が見られる。HDDを主体とした近年のストレージ製品では、HDDならすべて同じというわけではなく、パフォーマンス指向のSAS(Serial Attached SCSI)HDDと容量指向のSATA(Serial ATA)HDDが使い分けられ、製品によっては両規格を組み合わせて最適化を図るケースもある。

 コンシューマー向け製品をメインターゲットとしていたSATA HDDに関しては、大容量・低価格という特徴は現在でも維持されている。一方で、高性能だが高価なSAS HDDは急速に存在感を失いつつあるようだ。SASが高速と言ってもそれはあくまでもSATAとの比較の話であり、フラッシュと比較してしまえば低速デバイスととらえられる。そのため現在のSAS HDDは「低速なのに高価なデバイス」という微妙な評価に転じてしまっているのだ。フラッシュのコストがHDDと比較しても同等以下と言える水準まで下がってきている現在、まず市場を失ったのはSAS HDDというわけだ。一方のSATA HDDに関してはその存在意義が失われたわけではないので、フラッシュとの併存のかたちで当面は使い続けられるものと思われる。

 新技術/新規格はハイエンド市場から徐々に浸透してくる例が多いが、HDDからフラッシュ/SSDへの交代でも高速・高性能が求められる分野から始まったことになる。SAS HDDが市場を失いつつあるのはごく自然な流れだろう。逆に言えば、現時点でSATA HDDで問題のないワークロードに関してはそのままSATA HDDを使い続ければよいことになる。

 昨今はフラッシュの容量単価下落が著しく、今年後半にはいよいよSAS HDDとSSDの容量単価が並ぶという予測もある(本誌46ページからの「インダストリインタビュー」を参照)。新規にストレージを導入しようとしているのであれば、あらためてHDDとフラッシュの比較検討を行ったほうがよいのではないだろうか。

ストレージシステム設計の簡素化

 フラッシュストレージの普及に伴って同時に進行しているトレンドがある。それは、ストレージシステム導入時のサイジングやパフォーマンスチューニングなどにかかわるシステム設計の負担が従来に比べて大幅に軽減されている点だ。

 従来のHDD主体のストレージでは、RAID構成の技術的な制約から、パフォーマンスを最適化するには高度なノウハウが必要であり、データの特性やユーザーのアクセスパターンなどに応じて細かく設定を変更していく必要があった。

 「RAIDレベルはどれを選ぶのが適切か」「何台のHDDでRAIDを構成するのが最適なのか」「LUNのサイズはどの程度確保しておくべきか」といったファクターを細かく検討し、場合によっては実証試験を行ってデータを取得してみないと判断できない場合もあることから、相応の手間と時間を要する作業となる。

 一方、フラッシュストレージではHDDに比べてそもそものパフォーマンスに余裕があることから、それほど神経を使わなくてもユーザーが求めるニーズを満たすことは難しくない。さらに、フラッシュではドライブ単体での信頼性がHDDよりも高いことが構成を単純化することに貢献している。

 HDDでは昔からS.M.A.R.T.といった内蔵の自己診断情報を参照することで障害発生を予測する試みも行われてきたが、実際には予測精度はさほど高くはなかった。HDDを利用するかぎり、何の予兆もなく突然動作障害を起こすというリスクはなくならない。それに備えてのRAID構成であり、もっと大きな単位での多重化を行うなど、データの重要性に応じた保護レベルを実現するためにはシステム自体の構成設計を最適化する必要がある。

 一方でフラッシュの場合は、上述したように、セル単位で見ればHDDでは気にする必要のないデバイスの摩耗の問題があるため、書き込み回数を正確に管理する必要があるが、これはデバイス側に組み込まれたコントローラチップが自動的に平均化してくれるので、ユーザーの側で意識をする必要がない。

 また、HDDの場合は、障害を起こした場合の影響範囲がドライブ単位になることが大半であり、障害時にはGB単位のデータが一気にアクセス不能になる。これがフラッシュの場合、SSDやローフラッシュモジュールがまるごと動作障害を起こす例はまれで、通常はセル単位の障害が少しずつ積み上がっていくかたちだ。

 現在のSSDなどではこうした障害発生を想定した代替セルがあらかじめ十分な量で確保されているので、ストレージシステムとしての耐障害性はHDDストレージよりもはるかに高い。ユーザーは以前のように耐障害性とパフォーマンスのバランス設定に苦労することは少なくなっているのだ。実際、ベンダー各社のオールフラッシュストレージ製品では、一般にフラッシュの特性に合わせた設計のRAID方式を採用している。それにより柔軟な容量追加が可能になっているなど、事前のシステム設計に負担がかからない製品が増えている。

 こうしてシステム設計が簡素化されたことで、販売側では事前の見積もりや提案作成に要する負担が大幅に削減され、ユーザーは従来よりも迅速に、求める性能のストレージシステムの稼働を始められることが期待できる。フラッシュストレージは、運用時のIOPS(Input/Output Per Second:1秒あたりのI/O処理性能)の高さのみならず、運用開始前からすでにメリットを生んでいるという言い方もできそうだ。

導入後の運用管理負荷も軽減

 そして、データセンター/ストレージ管理者にとっての現実的なメリットとして、導入後の運用管理作業に関しても従来に比べて大幅な省力化が実現されている。これも、上述したフラッシュ/SSDの信頼性がHDDよりも高い点に起因する。

 HDDの場合、S.M.A.R.T.のような自己診断機能が備わっているとはいえ、動作障害の兆候を確実に捕捉できるわけではないことはすでに述べたとおりだ。障害発生に備えてRAID構成を組み、さらに筐体単位でのバックアップシステムを準備するなどの対策を行っているわけだが、運用管理担当者としてはこうしたシステム構成だけに全面的に依存するわけにもいかず、障害発生を検知した場合には迅速に対応するための体制を整えておく必要がある。人数に余裕があれば交代制で当番を決めておくなどの体制を組むだろうが、いずれにしても運用管理担当者の負担は大きい。

 しかも、大規模なストレージシステムを運用する場合は、稼働させるHDDの総台数も膨大になる。そのため、残念ながらHDDの障害に遭遇する頻度は決して低くはない。アレイを構成するHDDが1台故障しただけならデータの喪失は起こらないが、この状態ではデータ保護レベルが大幅に低下しているため、迅速に代替ドライブに交換する必要がある。交換前にさらに別のドライブが障害を起こした場合、データ喪失のリスクが現実味を帯びてくることになる。

 これは半ばジンクスめいた話でもあるが、HDDの障害は特定のアレイで同時期に集中して起こる傾向があるという話も聞かれる。根拠としては、同じアレイに属しているHDDはほぼ同じような運用状況にあり、かつ同時期に購入した同一製造ロットの製品であることが多いため、おおむね同じような時期に寿命を迎えるというものだ。

 管理者の心理として、起こってほしくないタイミングで起こった障害のことは嫌でも記憶に焼き付けられることから、こうした事象がことさら強調される傾向があることも事実ではある。しかし、HDDベースのストレージの場合、RAID構成になっているから安心であると言える状況にはないということは、管理者なら身に染みて理解していることだろう。

 なお、障害を起こしたHDDを新品に交換すると、アレイの再構築が始まる。その際、アレイ内で大量のデータI/Oが発生することになる。これがアプリケーションのパフォーマンスに悪影響を及ぼすのはもちろんのこと、最悪の場合、アクセス不可の状態になってアレイ内のHDDが連鎖的に故障していくという状況も起こりうる。

 HDDベースのストレージを運用管理していく場合には、こうした最悪の状況までを想定した対策を講じておくと共に、いざ障害が起こった場合にも適切な対処をとることのできる技術/知識を持った管理者が欠かせない。しかも時には遠くにあるデータセンター/サーバールームまで迅速に駆けつける必要があるわけで、その負担は多大なものになる。

 その意味でも、HDDに比べて障害発生頻度は極めて低いフラッシュ/SSDを選ぶことは理にかなっている。フラッシュにはHDDのような機械的な可動部分が存在しない。さらに障害発生は基本的にセル単位であり、ユニット単位などの大きな単位での障害発生リスクは低い。

 例えば、HDDと同様のドライブフォームファクターとなっているSSDの場合、1台のSSDがまるごと利用不能になることはまずなく、SSDの内部で一部のセルが使えなくなるといった程度だ。しかも、セルの一部が障害を起こすことは事前想定済みの事象であり、SSD内部には公称容量を超えるフラッシュチップが搭載されており、この余剰分が代替セルとして使われる。

 つまり、SSDの寿命は単純に「仕様上定められている書き込み上限回数に達した時点」ではなく、「書き込み上限回数に達したセルを順次代替セルで置き換えていったのち、準備された代替セルを使い切った上でさらに使用不能セルが増加していき、最低保障容量を確保できなくなった時点」という考え方になる。セルの書き込み回数の平準化処理なども高度化しているため、実際にこうした観点でのSSDの寿命が尽きた例は、どのベンダーに聞いてもおおむね「報告された事例はほとんどない」といった返事が返ってくる状況だ。

 突発的な障害発生リスクが低く、さらに一般的なシステム運用期間内に交換に至る例がほとんどないとなると、事実上「フラッシュストレージは基本的に故障しない」と考えることも間違いではないだろう。もちろん、万一に備えた対策が不要になるわけではないが、HDDに比べれば大幅に運用管理の負担が軽減されることは間違いないだろう。

 なお、フラッシュストレージの寿命はユニット側でほぼ正確に把握できる。HDDの自己診断情報とは異なり、フラッシュの寿命は書き込み回数に基づいて判断されるものなので、精度は高い。このため、フラッシュモジュールが寿命を迎える場合はその時期をあらかじめ推定することが可能であり、余裕を持って交換のスケジュールを立てることができる。

 いつ発生するか予測できない障害に備えて常に即応体制を整えておく負担から解放され、日常業務の一環として計画的に交換作業を行えるように、運用管理体制が様変わりすることになる。フラッシュストレージに関してはI/Oパフォーマンスがまず注目されるが、運用管理面でもHDDに比べて大きなアドバンテージが得られるのである。

ソフトウェアの重要性が大きく高まる

 ストレージというとハードウェアが注目されがちだが、今日の製品におけるソフトウェアの重要性はことのほか大きい。

 従来型の製品でも、アーキテクチャや実装技術の差異、組み込まれるストレージソフトウェアの違いなどによって、ベンダー各社はそれぞれ独自の個性や特徴を打ち出してきた経緯がある。それが、フラッシュの時代になり、ソフトウェアの違いがより顕著に表われるようになった。HDDストレージでは、HDDの制約上、あまり複雑な処理を組み込むことはしてこなかった。しかし、フラッシュでは、HDDよりも高速な分、多彩なソフトウェア処理を組み込むことが可能になったのである。

 わかりやすい例が、インラインでのデータ圧縮や重複排除の処理だ。データI/Oのタイミングでこれらの処理を行うことで、物理的な記憶容量を超えるデータの記憶を可能とし、実質的なバイト単価を低減させることが可能になる(図3)。

図3:インライン重複排除の仕組み(出典:ネットワールド「ネットワールド らぼ」http://blogs.networld.co.jp/main/2014/07/data-domain-1350.html

 HDDの場合は容量単価が右肩下がりで推移し続けていたこともあって、こうした処理を敢えて組み込む必要も薄かったとも言えるが、フラッシュストレージ、特にオールフラッシュ構成では、インラインでのデータ圧縮や重複排除がもたらす大きな効果のおかげで、実質的な容量単価をHDDと同等以下に引き下げることか可能になり、採用が拡大している。

 Part1でも述べたが、サーバー側が急速に仮想化されたことを受けて「仮想化環境に特化したストレージ」というコンセプトを打ち出したティントリのような例もある。製品ごとに特化した特徴を打ち出す例が増えることで、ユーザーはそれぞれのニーズに合ったストレージを選べるという選択肢の広がりを得られる一方、どの製品が最適なのかを決めるのが難しくなってきている面もある。

 現在のストレージは単なる記憶媒体の集合体ではなく、ソフトウェアとの組み合わせで独自の機能性を提供するアプライアンスとしての性格を強めつつある。その傾向は特にフラッシュストレージで顕著であり、とにかくI/Oパフォーマンスを高速化したいというニーズにこたえることに注力していた初期段階からすると、ずいぶんと洗練が進んできている印象がある。

 なお、ネットワールドでは、こうした状況を受けて取り扱い製品を横並びで比較できる環境として「Networld PIC(Pre Integration Center)」の開設準備を進めている。2016年秋より稼働開始予定のこの設備では、「個別案件のPOC検証の実施」「各種ストレージ性能検証の実施」「ソリューション構築」の3つの目的を掲げる。

 同社の説明によれば、Networld PIC は、VDI(Virtual Desktop Infrastructure:デスクトップ仮想化)環境を構築した多数の仮想化サーバー群と各社のストレージ製品を並列に接続し、同条件でストレージごとの差異を検証できる環境だという(図4)。

図4:Networld PICでのVDI 環境検証イメージ(出典:ネットワールド)

 ユニークなのは標準的なベンチマークツールなどをあらかじめ準備しており、利用者は面倒な事前準備なしに手軽に性能比較を実施できる点だ。こうした設備を提供するためには、まず必要な製品を調達する必要があり、簡単には実現できないが、各社製品のディストリビューターという立場を生かした同社ならではの取り組みとして注目される。

スケールアウト拡張ニーズで注目高まる分散ストレージ

 クラウドの企業利用が一般的になって以降、従来型の独立した筐体を持つストレージシステムに加え、コモディティサーバーをストレージとして利用する分散ストレージが以前より注目を集めてきた。

 NAS型のファイルアクセスストレージやクラウド向けのオブジェクトストレージに関しては、オープンソースソフトウェアによる実装も普及している。一方、同様の分散型アーキテクチャでSAN型のブロックアクセスストレージを実現する例もあり、商用製品としてはヴイエムウェアの「Virtual SAN」(画面1)などがある。

画面1:ヴイエムウェアの「Virtual SAN」の管理画面(出典:米ヴイエムウェア)

 コモディティサーバーをストレージとして活用するという観点では、昔からあるファイルサーバーに先祖返りしたようにも思えてしまうが、当時の単純なファイルサーバーとはまったく異なると言ってよい。

 最大の特徴は、スケールアウト型の拡張に対応している点だ。古いRAIDアレイでは、最初に確保したLUNのサイズを運用中に変更するのは困難だった。その後、ストレージ仮想化技術の発展により、複数のRAIDアレイに分散して確保されたLUNを仮想的に統合したり、あるいはシンプロビジョニング(Thin Provisioning)機能を使って、あらかじめ十分な仮想容量を確保したりすることで、後から物理容量を簡単に追加できるようにしておくなどの対応策も使えるようになったが、それでも万全とは言えなかった。

 というのも、従来のストレージは基本的にはスケールアップ型の拡張スタイルであり、ディスクドライブの追加によって記憶容量を拡張することには対応するものの、コントローラの処理能力を拡張することは容易にはできなかったためだ。繰り返しになるが、現在のストレージではソフトウェア処理の比重が高まっている。右肩上がりで増大を続けるデータ容量にリーズナブルなコストで対応していくためには、従来は使われていなかった領域でもデータ圧縮や重複排除を活用していく動きが広がっていくことも予想される。

 そのため、I/O帯域幅を確保するという用途に加え、ソフトウェアの処理性能を確保するという意味においても、コントローラの処理能力を容量増加に合わせて柔軟に拡張していく必要があるわけだ。

 コモディティサーバーベースの分散型ストレージでは、ノードには十分な処理能力を備えたCPUと大容量のメインメモリを搭載しており、さらにネットワークインタフェースなども確保される。ノードの追加によって並列性が高まることもあり、容量の増加と同時に処理性能もリニアに向上していくことになる。

スモールスタート/スケールアウト拡張を容易に

 クラウド環境の普及によって、ストレージの増加ペースはますます予測しにくくなってきている。また、現在のデータ量増大を牽引している多種多様な非構造化データはアクセス頻度や増加ペースもまちまちであり、この点も対応を難しくしている。

 業務用データベースなどの構造化データを中心としていた時代には、次の機器更新時期までの数年間で増加するデータ量をほぼ正確に予測し、それに合わせて最大容量を決定した上で定期的にドライブ追加を行っていくという安定的な運用も可能だったが、現在ではそうした計画的な運用が可能なシステムはごく少数にとどまるだろう。

 コモディティサーバーによるソフトウェアベースの分散ストレージの場合、ノードとなるハードウェアに対する依存性が低い。そのため、調達の際の納期が短く、段階的にコストダウンが進行するため、コスト削減も容易といったメリットもある。「スモールスタートで必要に応じて段階的に容量拡大」といった方針で臨んだ場合にもデメリットがほとんどない。

 さらに、エンタープライズストレージの場合は、スモールスタートの場合でも筐体サイズは一定であり、将来ディスクドライブを追加するためのスペースはあらかじめ確保済みという状況になるのが一般的だが、サーバーベースの分散ストレージの場合はシステム全体を収容する筐体というものは特になく、標準的なラックに順次搭載するだけでよい。

 ここで、ネットワークケーブルがあまりに長くなるようだと運用管理面で支障が生じることも考えられるが、近傍であれば同一のラックにまとめて収容する必要もなく、複数ラックにまたがってもよいため、スペース面でもメリットは大きいだろう。

 ビッグデータの企業活用が盛んになりはじめた頃、オープンソースの分散処理フレームワークである「Apache Hadoop」が注目を集めた。ただしHadoopは分散データ処理に特化した技術であり、必要とするユーザーはかなり限られていた。一方、現在採用が拡大しつつある分散型ストレージは、ファイルサーバー的な運用やエンタープライズアプリケーションのためのストレージとして活用できる類の技術であり、その点でもHadoop以上に広範に活用が広がっていく可能性がある。

コンバージド/ハイパーコンバージドシステム市場の形成

 コンバージド(Converged)/ハイパーコンバージド(Hyper-Converged)システム(インフラ)は、数年かけて段階的に採用が拡大しており、いよいよ本格的に主役の座に躍り出ようかというタイミングにある。

 ベンダー1社が垂直統合型で構成するコンバージドシステムに対して、統合の度合いをさらに高めたハイパーコンバージドシステムという呼び方が数年前よりなされるようになった。一般に、サーバー、ネットワークの統合をコンバージド、そこにストレージシステムも含めるとハイパーコンバージドと呼ばれることが多い。主なところでは、ニュータニックス(Nutanix)の「Nutanix Xtreme Computing Platform」、ヴイエムウェアの「VMware EVO:RAIL」、ヒューレット・パッカードの「HP ConvergedSystem 200-HC StoreVirtual」、シスコシステムズの「Cisco HyperFlex」(写真3)などがハイパーコンバージドインフラを名乗って市場に投入されている。

写真3:シスコシステムズのハイパーコンバージドシステム「Cisco HyperFlex」

 コンバージド/ハイパーコンバージドシステムは、仮想化環境の普及に伴って成長している。ユーザー側で仮想化環境を構築する負担が軽減されることと、仮想化環境を活用することでさまざまな用途に対応できる柔軟性が得られたことの両面が推進力となっているとみられる。

 ハイパーコンバージドシステムのストレージ部分に注目すると、多くはスケールアウト型の柔軟な容量拡張に対応しており、導入後の規模拡張が容易になっている。また、仮想サーバーが組み合わされており、サーバーとストレージの組み合わせや、サーバーからストレージにアクセスするための適切な設定といった詳細に悩む必要はない点もメリットとなる。

 ITインフラの進化/成熟によって、従来のような「知識と技術を備えたユーザー自らがシステムを構築し、活用する」というスタイルは過去のものとなりつつある。現在では多くのユーザー企業がITを「ビジネスのためのツール」と位置づけ、迅速に、低コストで目的を達成してくれることを最優先に考えるようになってきているわけだ。

 この結果、最上位のアプリケーションの部分であればまだしも、インフラに関しては独自の工夫を盛り込んで競争力を高めるという発想は希薄になってきており、標準化され、事前構成された検証済みのシステム/インフラを導入することで短期間にアプリケーションを展開するほうが、はるかにメリットが大きいとの認識が広がっている。クラウドの普及もこうした流れの一環ととらえることができるし、コンバージドシステムの普及も、同じ文脈で理解できるだろう。

(データセンター完全ガイド2016年夏号)