クラウド&データセンター完全ガイド:特集

ITインフラ戦略策定の際に留意すべきテクノロジー/サービス動向

データセンター/クラウドサービスの選び方2018(Part 3)

弊社刊「クラウド&データセンター完全ガイド 2018年春号」から記事を抜粋してお届けします。「クラウド&データセンター完全ガイド」は、国内唯一のクラウド/データセンター専門誌です。クラウドサービスやデータセンターの選定・利用に携わる読者に向けて、有用な情報をタイムリーに発信しています。
発売:2018年3月30日
定価:本体2000円+税

 デジタルトランスフォーメーション(DX)の潮流の中で、データセンターやクラウドサービスを取り巻く状況も目まぐるしく変化している。ここでは、その中でも最近話題になった技術トレンド/トピックに触れながら、戦略的なIT インフラを実現するためのデータセンター/クラウドサービス選定時に留意すべき点を概観してみよう。 text:渡邉利和

ハイブリッドITインフラ構築過程での問題点

 「オンプレミスかクラウドか」の問いには、暗黙のうちに「古いものを最新のものに」という意味合いが込められることが多い。だが、Part 1で述べたように、現実の環境を考えると、すべてがオンプレミスからクラウドにシフトするわけではなく、ユーザーにとってはITインフラの一形態としてクラウドが選択肢に加わったと見るのが正しい。

 各所で言われているように、オンプレミス、プライベートクラウド、パブリッククラウドを適宜組み合わせて使うハイブリッドITインフラが、大半のユーザーが目指すITインフラのゴール形態となる。現時点では、複数の形態が単に混在したレベルで、統合/融合と呼べるレベルにまでは至っていない。

 ハイブリッドITインフラに向かう過程で浮かび上がる問題の1つが運用管理にまつわる問題だ。オンプレミス/クラウド混在やマルチクラウドの環境では、個々別々の運用管理ツール/手法が存在し、担当者はそれぞれの環境の違いを意識し、必要な技術知識を学習する負担を強いられる。この問題を解決するために、ITベンダー側では既存のツールのクラウド対応や、ハイブリッドIT環境をサポートするツールの開発などに力を入れている。ただし、ユーザー企業のIT部門にとって真に使いやすい製品になるまでにまだ時間がかかりそうだ。

オンプレミス環境がクラウドの技術要素を取り入れて進化へ

 一方で、主にオンプレミスのITインフラ製品にクラウド的な機能や運用管理手法を取り入れる動きも見られるようになってきた。この1、2年で急速に知名度が上昇したハイパーコンバージドインフラ(HCI:Hyper Converged Infrastructure)製品の登場は、この動きの1つととらえられる。

 HCIは、SDS(Software Defined Storage)を活用して、サーバー内蔵のディスクを仮想統合してストレージプールを構成する点や、スケールアウト型の分散システムである点など、クラウドの技術要素を多く取り入れたアーキテクチャと言える。筐体がコンパクトで拡張方法もシンプルなわかりやすさを持つHCI製品が市場に受け入れられたことで、なかなか普及が進まなかったSDSの利用が拡大しつつあるほどで、ITインフラ分野の製品にしてはかなりの注目株となっている(図1)。

図1:わかりやすさが市場で受け入れられたハイパーコンバージドインフラ(出典:米ニュータニックス)

 また、パブリッククラウドを構成するソフトウェアスタックを丸ごとオンプレミスのシステムとして提供する形態も登場している。具体的なサービスで言うとマイクロソフトがサーバーハードウェアベンダーとのパートナーシップで2017年10月より提供が始まった「Azure Stack」(写真1)がそれだ。

写真1:Azure Stackが事前設定・構成されたアプライアンス「HPE ProLiant for Microsoft Azure Stack」(出典:日本ヒューレット・パッカード)

 同様のコンセプトで、2014年4月にオラクルがリリースした「Oracle Cloud Machine」の先行例もあるが、パブリッククラウドのIaaS(Infrastructure as a Service)市場でAWS(Amazon Web Services)を猛追するMicrosoft Azure環境をオンプレミスで利用できるというメリットは多くの企業にとって魅力的に映るだろう。

 長年、ITインフラハードウェア製品群を擁するIBMもこの動きに対応し、2017年11月より、クラウドアプリケーション開発環境をオンプレミス/プライベートクラウドで利用できる「IBM Cloud Private」の提供を開始している。こちらは、Docker/Kubernetesコンテナ環境とCloud Foundryの両方をサポートするPaaS(Platform as a Service)の位置づけとなる。アプリケーション開発をメインに、オンプレミスとクラウドを連携させていくアプローチととらえることができよう。

ハイブリッドITインフラでないことのリスク

 紹介してきた動きの活発化は、やはりクラウド環境と従来のオンプレミス環境との違いが想像以上に大きく、移行に多数のユーザー企業が困難を感じていることの表れだ。

 IaaSはもともと、オンプレミスの仮想サーバーをそのままインターネット上でサービスとして提供するというアイデアから生まれたコンピューティングモデルである。しかし、クラウドサービスが事業として成立してから10年以上が経過し、クラウドネイティブとしての技術進化を遂げた結果、元のオンプレミスの仮想サーバーとは、特に運用管理周りで大きな相違が生じることになった。このギャップは必然であり、それを埋めるべく、上述のような取り組みが登場することになったわけだ。

 また、今後クラウドネイティブなアプリケーションの開発が主流になっていくことを見据えて、みずからのオンプレミス環境にクラウドと同じ構成のソフトウェアスタックがほしいという開発者からのニーズも大きい。開発作業自体をクラウド上で行うこともできるが、例えば、開発中のコードテストで無限ループに入り込んで延々とCPUサイクルを食い潰すような局面もあるので、コスト上、テスト環境に関してはオンプレミスに残すという判断が出てくる。

 とはいえ、クラウドネイティブアプリケーションの場合、他の各種サービスやソフトウェアの機能を、APIを通じて利用したりされたりする構造になっている。そのため、オンプレミスの環境では本稼働時に必要な要素がそろわないといった問題が出てくる。それを考えれば、クラウドのソフトウェアスタックを丸ごとオンプレミスに置くというアプローチには理がある。

 デジタルトランスフォーメーション(DX)の広範な対象領域を考えても、ユーザー企業が今後、オンプレミスのみ、あるいはクラウドのみというかたちでITインフラを統一することはあまり現実的ではないと見てよいだろう。やがて否応なしにハイブリッドITインフラの構築・運用に踏み切らざるをえず、そうしないとさまざまなデメリットを抱え込むというリスクが生じることが想定される。こうした点を踏まえて、自社にとって最適なITインフラのあり方をいよいよ真剣に検討すべき時期にきていることは間違いない。

データセンター事業者が提供する「サービスとしてのAI」

 ここ最近で、AI(Artificial Intelligence:人工知能)関連のニュースを耳目にしない日はない。マシンラーニングやディープラーニングといったこの分野の先端技術が格段に使いやすくなり、十分なコンピューティングリソースを投入できるようになった結果、単なる技術実証のレベルを超えて実用的な価値が得られるようになっている。

 クラウドやデータセンターの文脈で言えば、マシンラーニングやディープラーニングは膨大な演算能力を消費するワークロードであり、ユーザー企業単独で準備するのが非現実的なレベルの台数・性能のコンピューティングリソースを必要とする。このことから、クラウドやデータセンターサービス事業者にとってのキラーサービス的な位置づけにある分野でもある。

 データセンターにおけるAIサービスはさまざまなレイヤで展開されている。基本中の基本となるのがIaaSとしての仮想サーバーの提供で、ディープラーニングの画像認識処理に特化したGPU(Graphics Processing Unit)が従量課金で利用できるようになっている(データセンターサービスとして利用できるGPUについては後述)。

 PaaSのレイヤでは、グーグルが開発したオープンソースのマシンラーニング用ライブラリ「TensorFlow」などの利用で、マシンラーニングの一連の処理をサービスとして利用できるようにしている(写真2)。IaaSよりPaaSのほうがユーザーの負担は減るが、細かなカスタマイズやチューニングはやりにくくなり、料金も高くなる。データセンター事業者もAIサービスではなく、コンサルティング込みで専門家に任せてしまうという選択肢も選べるようになっている。

 AIのビジネス活用は現状、過渡期と言えるが、この時期にすでにビジネス上の利益をもたらす実用システムとして成立している事例が増えている。自社で思い描いたアイデアが同業他社に先を越されるようなことを避けたければ、少なくとも、どのようなサービスやソリューションがあるか、どのような事業者がどんな「サービスとしてのAI」を提供しているかといったことは調査しておくのに越したことがない。

写真2:教育、学術研究、各業種のビジネスでTensorFlowを用いたマシンラーニング活用の試みが広がっている(出典:YouTubeのGoogle Developersチャンネル「TensorFlow: Machine Learning for Everyone 」)

AIをどうビジネスに生かすか

 DXの潮流の中で、サービスのデジタル化が進めば進むほど、ユーザーの行動解析/行動予測といった、AIが得意とする処理のための基礎データが膨大に蓄積されていく。

 現在のAIの根本は、データを大量に集めて解析することで、そこから何らかのパターンを抽出したり、類似性を見つけ出したりといった処理を行うことにある。

 つまり、解析可能な状態で収集されたデータの蓄積が大前提となる。オンライン通販サイトなどでは以前から実行されている手法だが、キャンペーンや広告などがどの程度の効果を生んでいるかをユーザーのサイト内の移動履歴をチェックするなどして解析している。これによって、より効果的なキャンペーンを行えるようになるような成果が得られているわけだが、実のところ根本的な考え方はリアルの店舗でも同じように通用するものだ。

 例えば、コンビニエンスストアの店内で、来店した客がどのような経路を辿って店内を見て回るのか、どの棚の商品が目にとまりやすいのかといった情報をユーザーの振る舞いを詳細に観察することで蓄積し、解析することで購買意欲をそそる陳列方法についての知見が得られるだろう(図2)。

図2:コンビニの「売上予測部門」が、さまざまなデータに分析をかけて商品や販売店舗ごとの販売予測を行う例。ビッグデータ分析手法に加えてAI の活用が期待される分野だ(出典:ローソン「ローソン研究所」)

 しかし、こうした処理が簡単ではないのは、リアルの店舗内のユーザーの行動をデータ化するのが簡単ではないからだ。Webサイトの中でのユーザーの閲覧履歴はログとして残るため、解析可能なデジタルデータとして蓄積されているわけだが、リアルの店舗内のユーザー行動をデータ化するには、監視カメラの画像を解析するなどの手法が考えられるものの、Webサイトに比べればかなり面倒な作業であることは明らかだ。

 現在のAIブームは、インターネットがビジネスの“場”として相当規模に成長してきたことと、そこでのユーザーの振る舞いがログデータというかたちで収集されていることが大きいだろう。つまり、解析可能なデータが膨大にあることが、解析手法としてAIの有効性を実証することにつながったという流れだ。

 “トランスフォーメーション”と言っても、現状はまだそうしたトレンドが動き始めたというレベルの話だが、ごく初期段階である現時点でもすでに業界によっては激震とも言えるようなインパクトを受けているし、膨大なデジタルデータとAIの組み合わせによって従来は実現できなかったような高度なサービスも続々と生み出されつつあるなど、目覚ましい成果につながっている。

「サービスとしてのAI」の選び方の留意点

 現在、AWS やMicrosoft Azure、Google Cloud Platform、IBM Cloudなどの主要クラウドプレーヤーは、それぞれの強みを生かしたAI支援サービスを提供している。ユーザーとしては、自社でやりたいことに最も近いサービスを選んで利用することになるが、現時点では注意すべき点がいくつかある。

 まず、PaaSのレイヤだと、サービスは各社それぞれのプラットフォーム独自性が強く、一度使い始めたら事実上ロックインされることになる。別のプラットフォームに移行するのは不可能ではないにしても多大な手間とコストの覚悟がいる。サービス利用開始までのリードタイムの短さや初期コストの抑制といったメリットはもちろんあるので、デメリットと見比べて判断することになる。

 なお、データセンターでのAI処理という点で、2017年末に話題になったのがエヌビディア(NVIDIA)のGPU利用ライセンス変更の問題だ。PCのグラフィックカード向けGPUである「GeForce」や「TITAN」シリーズをデータセンターで使うのは、ブロックチェーン処理を除いて禁止するという記述が論議を呼んだ。エヌビディアとしては、本来のGPGPU処理向けアクセラレータとして「Tesla」シリーズが製品化されているので、データセンターでのAI用途ではこちらを使ってほしいという見解をライセンスに示したかたちだ。

 GeForceはPCゲームや高精細ビデオストリーミングなどの高速な描画のために開発されたGPUではあるが、GPGPUは、General Purpose GPUのフレーズどおり、GPUをグラフィックス描画以外の演算用途に活用するという手法だ。そこで、予算が限られる学術研究機関などを中心にGeForceやTITANがGPGPUとして広く利用されてきた経緯がある。

 エヌビディアでは、学術研究や小規模な非商用の用途まで禁止する意図はないと説明しているようだが、一方で商用サービスとして提供している事業者に対してサービスの提供差し止めを求めたとも報道されている。実際に、さくらインターネットではAI支援サービスとして、専用サーバーの一サービスメニューとして「さくらの専用サーバ 高火力シリーズ」(図3)の提供を行っていたが、2018年1月31日付けで、TITAN搭載モデルの新規提供を終了すると発表。Tesla搭載モデルのみの提供となっている。

 現状のGPGPU市場はほぼエヌビディアが創出したようなもので、有力な競合と言える存在も特に見当たらない状況だが、グーグルがTensorFlowによるマシンラーニング/ディープラーニング処理に特化したカスタムチップとしてTPU(Tensor Processing Unit)を開発し、Google Cloud Platformで利用可能にしている例もある。もし、GPGPUの先行きに不安を感じるのであれば、ハードウェアに投資するのではなく、クラウドサービスやレンタルサーバーのかたちで利用しながら様子をみるのは賢明なチョイスと言えそうだ。

 AIに関してはまだまだ急速な進化が続いている状況であるため、どう取り組むべきかの判断は難しい。AI技術そのものの開発に取り組むのであれば、後れを取るわけにはいかないという判断で、敢えてリスクを取って先行投資に踏み切るべきかもしれない。

 一方、AIをビジネスに活用したいという企業の場合、支援環境やサービスが成熟するのを待ってからスタートするほうが低コストで作業負担も軽くできる可能性もある。それぞれの立場に応じて判断することになるが、今後の動向には、ビジネスとテクノロジーの両面で、常に注意を払って見ていく必要があるだろう。

図3:AI 支援サービス「さくらの専用サーバ 高火力シリーズ」の時間課金の利用イメージ(出典:さくらインターネット)

【特集】データセンター/クラウドサービスの選び方2018