クラウド&データセンター完全ガイド:特集

AIはデータセンターやITインフラをどう進化させるのか

AIコンピューティング時代のITインフラテクノロジー(Part 1)

弊社刊「クラウド&データセンター完全ガイド 2018年夏号」から記事を抜粋してお届けします。「クラウド&データセンター完全ガイド」は、国内唯一のクラウド/データセンター専門誌です。クラウドサービスやデータセンターの選定・利用に携わる読者に向けて、有用な情報をタイムリーに発信しています。
発売:2018年6月30日
定価:本体2000円+税

デジタルトランスフォーメーションの潮流が、収集・格納・管理を司るデータセンターの役割や機能に変革を突きつけている。デジタル化の先端を走るAI(人工知能)やマシンラーニング(機械学習)のような技術は、データセンターやITインフラの運用をどのようなレベルにまで引き上げてくれるのか。主要分野での適用状況を概観する。 text:渡邉利和

クラウドやデータセンター活用の“その先の進化”

 ITシステムはさまざまなコンポーネントで構成されており、個別バラバラなペースで進化する。そのため不整合も生じるが、一方で相互に影響し合って変革と呼べる大幅な変化を起こすこともある。

 ワイヤレスネットワークの整備とスマートフォンなどのデバイスの進化が常時コネクテッドのライフスタイルを生み出し、さらに多様な業種で商取引/サービス利用がスマートフォンのアプリを介して行われているのはご存じのとおりだ。

 こうした今の潮流をデジタルトランスフォーメーション(DX)と呼んでいる。DXでは、新規ビジネスの創出だけでなく、IT化がそれほど顕著に進展してこなかった分野でもデジタル化によって、旧来のITをモダナイズしていく動きも含まれる。

 DXのドラスティックな変化に、はたして今のITインフラは追随できているだろうか。2010年代に台頭したクラウドや社外データセンターの積極的な活用は、長年の自前でのITインフラ構築・運用での対応が難しくなってきたことに起因する。そして今は、クラウドやデータセンターを構成するITインフラ技術自体にもさらなる進化が起こりつつある。

AIの急速な進展

 スマートフォンの普及によるライフスタイルの変化はIT活用に大きな変化をもたらしたが、AI(Artificial Intelligence:人工知能)やその関連技術の進化もまた、これまでのIT活用を一気に陳腐化させる破壊的なイノベーションとなってきている(写真1)。

写真1:Amazon Alexaを搭載したスマートスピーカー「Amazon Echo」。第3次AIブームの立役者となっているのが、コンシューマー向けのAIアシスタント技術の普及だ(出典:アマゾン ジャパン)

 いわゆる第3次AIブームの到来で、「AIに仕事が奪われる」といった感情的な拒否反応まで引き起こしているのが現在のAI関連技術だが、今、実用化が急速に進んでいるのは、大量のデータを学習(learning)させることで膨大なパターンを見つけ出し、そのパターンを高度な分析や予測に応用するといった手法で、いわゆるマシンラーニング(Machine Learning:機械学習)やディープラーニング(Deep Learning:深層学習)技術である。

 人工知能の言葉から想定される自律性(Autonomous)を備えた製品の普及にはまだ時間がかかるが、それでも、これまで専門家が長い年月をかけて習熟してきたような知見や人間の能力を超えた処理を広範に利用できるようになる可能性が見えてきたことは大きい。

 同時に、専門家の知見の中には、後に科学的な手法で再検討した結果、単なる迷信にすぎないことが判明したというケースも少なからず存在する。こうしたある種の“勘違い”を排除し、データに基づく信頼できる知見を利用できるようになるという点でも、AIの進展には今後も大きな期待がかかる。

 現在のAI関連技術が大量データの学習をベースとしていることから、データの価値(あるいは、データから価値の引き出し方)の再検討が起こっている点も、これからのITインフラを考えるうえでは重要な変化と言える。

 詳細は後に触れるが、これまでは単なる記録としてアーカイブされていたデータも、AIの学習のために活用することで新たな価値を抽出できる可能性がある。これまで未活用のまま保存されていた大量データの潜在価値が見直される一方、死蔵されていたアーカイブデータをどうやって学習可能な形のオンラインデータに戻すか、という点が問われることにもなる。

AIコンピューティングの急激な進化

 マシンラーニング/ディープラーニングに関して、今日ではオープンソースのフレームワークが広く流通しており、取り組みを開始すること自体は比較的容易になっているが、価値の高い成果を得るために大量のデータを学習させるとなると、演算リソースも膨大なものが要求されることになる。

 これまでインテルをはじめ各社が性能向上に取り組んできたx86アーキテクチャのCPUは、当初の設計上シングルタスクの処理に強いアーキテクチャであり、並列処理に向いた構造にはなっていない。そこでAI処理向けのプロセッサとして脚光を浴びたのが、エヌビディア(NVIDIA)のGPGPU(General-Purpose Computing on Graphics Processing Unit:汎用GPU)だ。

 GPGPUは、グラフィックス処理専用チップとして開発されていたGPUを、特に科学技術分野での演算処理などのコンピューティングに適用したものだ。グラフィックス処理がそもそも大量の画素に対応するメモリデータを一括で変更していく「大量データの同時並列処理」なので、AIのようなヘビーな演算処理にも相性がよいわけだ。

 さらに、学習の結果、作成されたモデルを使って推論を行う処理の負荷も重いことから、この処理に特化したAI専用チップの開発競争も激化している。

 こちらはグーグルがGoogle Cloud Platformで利用可能にしているCloud TPU(Tensor Processing Unit、写真2)がよく知られているが、スマートフォン向けチップとして、アップルのA10 bionicやファーウェイのKirin 970、クアルコムのSnapdragon 700などのSoC(System on Chip)にはすでにAI処理機能が搭載されている。これらはスマートフォンやタブレットなどで動作し、ユーザーがAI技術を活用したアプリやサービスを利用する際に威力を発揮することになる。

写真2:グーグルのマシンラーニング/ディープラーニング用カスタムチップ「Cloud TPU」(出典:グーグル)

データセンターでのAI活用が今後興隆へ

 上述のように、AI技術に関しては、データセンター/PCプラットフォームよりもコンシューマーに向けたスマートフォンなどモバイルデバイスが先行して急速な進化を遂げている。他のテクノロジーと同様に、今後はサーバー、データセンター側でもAIを実装して活用の提案が活発になっていくのは必然の流れと言える。

 急速な発展を遂げている最中のAIから、どんな新しい機能やサービスが創出されるのか。今まさに競争が始まった段階だ。新興企業にとってはチャンスでもあるし既存企業にとっては危機とも言える状況だろう。

 現時点でデータセンター側でのAI対応を強化するには、GPGPUの導入が最も現実的な対応となろう。もちろん、すでにクラウドやIaaS(Infrastructure as a Service)でGPGPU搭載サーバーを従量課金で利用することもできるので、処理量等を勘案したうえで、オンプレミスで処理するほうが有利だと判断した場合の選択肢の1つということになる。

 標準的なIAサーバーにアクセラレータとしてGPGPUモジュールを追加搭載するほか、「NVIDIA DGX-1」のような専用のサーバーマシンとしての提供形態もある。こうした製品はAI処理の高速化には劇的な効果をもたらすだろう。

 こうした取り組みは、基幹系システムに代表されるSoR(Systems of Record)系のシステムの延長線上にあるものではない。そのため、運用管理や使いこなしといった面で、IT部門の担当者に新たな課題を突きつけることにもなる。AIに今後どのように取り組んでいくのか、その方針いかんによって、データセンターのアーキテクチャそのものが変更を迫られる可能性も踏まえる必要があろう。

IT運用管理・監視分野でのAI活用

 もう1つ重要な動きは、ITシステムの運用管理・監視の負担軽減や高精度化を狙った支援サービスに、AIを活用する動きが顕著になってきている点だ。

 実のところ、運用管理・監視の分野での取り組みは昨今のAIブームを受けて新たに始まったということでもない。内部的な実装技術の差異についてはさておき、10年ほど前から各社がさまざまな技術的アプローチを試みてきた歴史がある。

 例えば、IT運用監視ツールに備わる予兆検知の機能は、標準規格であるSNMP(Simple Network Management Protocol)などを利用して、現在のAI活用で実現される機能とほぼ同様のユーザーメリットをもたらしてきた。この分野ではすでに目新しい機能とは言えなくなっている予兆検知は、ログ情報などに基づいて平常状態のパターンを把握したうえで、その状態から外れたデータを検出した際に異常発生の可能性を考え、適宜アラートを送るというロジックになっている。

 これは、ログデータを学習してパターンを抽出、モデル化した上で新たに発生したログデータをモデルに当てはめて推論を行うというAIやマシンラーニングの手法とまったく同じ考え方だ。逆に言えば、従来は豊富なログデータを保有し、かつそのデータを適切に処理して予兆検知システムを完成させることができるベンダーは、そのデータやノウハウを有する一部のベンダーに限られていたが、AIの発展によって可能性が大きく広がり、ある意味で製品化のしきいが下がったとも考えられる。

 その端的な例と言えそうなのが、ヒューレット・パッカード(HPE)の「HPE InfoSight」に関する取り組みだ(図1)。InfoSightはもともとニンブルストレージ(Nimble Storage)が自社製品のユーザーサポートのために整備した、AIを活用する予兆分析サービスだった。ユーザーが運用中のストレージ製品のログや稼働状況/統計情報などのデータを収集して学習することで、高度な予兆分析をサービスとして提供していたものだ。ニンブルがHPEに買収されたことでHPEに継承されることとなった。

図1:HPE InfoSightに備わるAIレコメンデーションエンジンの概念図(出典:米ヒューレッド・パッカード・エンタープライズ)

 ニンブルストレージの買収後、HPEはやはり買収で獲得してラインアップに加えていたスケールアウト型ストレージ「HPE 3PAR」にInfoSightに組み込み、3PARでもニンブルと同様の水準の予兆検知サービスが提供できるようにした。将来的にはネットワーク機器やサーバーなど、HPEの製品ラインアップ全般にわたって予兆分析の適用を行う計画を明らかにしている。

 適用が拡大していけば、予兆検知の機能をITインフラ全般にわたって活用でき、データセンター全体の自律化が実現できる可能性が見えてくる。そもそも、HPEの意図として将来的な「自律データセンター」の実現が目標に掲げられており、そのための重要なツールとしてInfoSightを活用する、という流れになっているととらえられる。実現すれば、運用管理担当者の負担が大幅な削減が期待できる。

 一般的な認識として、ITインフラの中でもストレージは障害発生の可能性が高く、アプリケーションの処理が遅延したりタイムアウトしてしまったりと処理継続不可能になるケースで、真っ先にストレージの障害を疑うのが解決の近道だと思われてきたところがある。

 しかし、HPEによると、InfoSightを運用してきた経験上、アプリケーションに必要なデータが供給されず、アプリケーションの処理性能が劣化する問題のうち、半数は根本原因がストレージ以外の部分にあることが判明しているという。複雑な構成要素の中から問題発生箇所を迅速に発見するのは、運用管理担当者の腕の見せ所ではあるが、担当者個々人の知識や経験に頼った属人的な手法ではITインフラを長期安定的に運用し続けていくことは困難だろう。

 AIの支援によって問題箇所の切り分けが迅速にできるのであれば、担当者の負担軽減が実現し、人材に対して求めるべき技術水準を引き下げることも可能になる。これをして、「AIが人間の仕事を奪う」と見ることもできなくはないのだが、全体としては得られるメリットのほうが大きくなる取り組みだと考えられる。

AIによる“直感的なネットワーク”

 上述したHPEの取り組みは、ストレージから出発してデータセンターやITインフラ全体に適用範囲を広げていくという構想だが、もちろん他のエンタープライズベンダーでもAI活用の取り組みはすでに本格化している。

 シスコシステムズは2017年6月に、ネットワーク技術・製品分野の新しいビジョンとして「The Network.Intuitive.(直感的なネットワーク)」を発表している。ここで目指されるのは、AIを活用したネットワークハードウェア/ソフトウェア設定の自動化によって「直感的に利用できるネットワーク」の実現である。

 シスコもそうだが、ネットワーク製品業界では以前から、ベンダー各社がインテントベース(Intent-Based)のネットワーク製品の提供が目指されてきた。基本的な考え方はごくシンプルで、ユーザー側は用途やアプリケーションの特性に応じて「どのようなネットワークであってほしいか」を設定すれば、それを実現するためのネットワーク構成や各種設定はネットワーク側で自動的に行われるようにしたいということである。

 インテントベースネットワークはまさにその意味であり、シスコのThe Network Intuitiveに関しては、AIを使ってインテントベースを実現した場合、そのネットワークは運用管理担当者にとって“直感的に利用できるネットワーク”になるという理解でよいだろう。

 ともあれ、現在のIT環境ではネットワークの重要性はますます高まっている。スマートフォンの普及によって、コンシューマーの世界で常時コネクテッドを実現したことで、ネットワークが正常に機能していない状態がコンシューマー/ユーザーに与えるストレスはきわめて甚大で、ビジネスに影響を与えることになる。

 企業のPCの主流が、有線EthernetでLANに接続されたデスクトップPCだった時代は過ぎ去り、現在はオフィスでもワイヤレス接続が当たり前になっているが、そのための設定や運用は以前より面倒になっている。オフィスでもリモートでも、電波を遮ったり反射したりするものが散在しており、ノイズ源も膨大に存在する中で高速で安定的なデータ通信を行うことの困難さは、有線ネットワークの比ではない。

 シスコの取り組みは必ずしもワイヤレスネットワークに特化したものではないが、現在のワイヤレスと有線Ethernetを組み合わせた企業内LANは、かつての100Base-T+スイッチングハブで用が足りてきたオフィス内LANとはまったく状況が異なる。自動化の取り組みは、もはやオプションではなく必須の機能だと考えるべきだろう。

マシンラーニングがマルウェア検知の概念を変える

 AI技術の情報セキュリティの分野への適用も有望視されており、例えば、米サイランス(Cylance)の取り組みが知られている。“AIアンチウイルスソフトウェア”を掲げた同社の「CylancePROTECT」は、マルウェア検知ソフトウェアだが、従来のようなパターンファイル/シグニチャを使ったマルウェア判定ではなく、膨大なデータからマルウェア特有のパターンを学習させたマシンラーニングモデルに基づく判定でマルウェアを検知する。

 パターンファイル/シグニチャの手法では、そもそもあらかじめマルウェアの特徴を抽出して判定用のデータを準備しておく必要があるため、新たに出現したマルウェアに対してはまったく防御が機能しない。しかも、亜種の出現など、マルウェアの構造を微妙に変化させただけで検出精度が落ちるなど、マルウェアを仕込む攻撃者側から見た回避手段がさまざま存在する点も問題だった。

 そもそも、マルウェアに特有のパターンというものをあぶり出せるというのが驚きではある。そういう手法で検出を試みてくるのであれば、マルウェアらしく見えないようなコーディングを工夫することで検出回避が可能ではないか、と思ってしまうところだが、それを人間が考えて対応しようとしても不可能なレベルで精緻なパターンを作り出している点がAIならではの解析精度ということなのだろう。

*  *  *

 心理的な抵抗や懐疑的な姿勢も散見されるが、現状ではすでにAIの成果を無視することはできないレベルに達していると言える。コンシューマー分野に続いて、データセンター/ITインフラ分野でも、この技術を効果的に活用することで意義のある成果を得る方向に向かいたい。