ニュース

HPE、データセンター運用におけるAI活用の研究を米国立再生可能エネルギー研究所と共同で実施

 米Hewlett Packard Enterprise(HPE)は18日、米国エネルギー省傘下の国立再生可能エネルギー研究所(NREL:National Renewable Energy Laboratory)と共同で、AIによるIT運用(AI Ops)に関する研究開発を実施すると発表した。

 HPEでは、これによりエクサスケール時代のデータセンターにおける耐障害性やエネルギー利用など、運用の自動化と効率の向上を実現する人工知能(AI)や機械学習(ML)技術の開発を進めると説明。今回の取り組みは、エネルギー消費と運用コスト削減を実現する新しい技術の開発、展開を目的に、NRELが継続しているミッションの1つとなるという。

 プロジェクトでは、3年間のコラボレーションを通じ、NRELのエネルギーシステム統合施設(ESIF:Energy Systems Integration Facility)のHPC Data Centerにおいて、モニタリングと予測分析を発電および冷却システムに導入する。

 HPEとNRELでは、5年以上にわたって蓄積された、16TBを超える履歴データを活用。NRELのスーパーコンピュータであるPeregrineとEagleのセンサーから集められるこれらのデータにより異常検知モデルを強化し、問題が起こる前に予測、防止する。

 また、今回のコラボレーションは、データセンターでの将来的な水とエネルギーの消費問題への取り組みでもあると説明。HPEとNRELは、エネルギー消費のモニタリングに注力し、電力利用効率(PUE: Power Usage Effectiveness)、水利用効率(WUE: Water Usage Effectiveness)、二酸化炭素利用効率(CUE: Carbon Usage Effectiveness)といった主要な基準で測れるエネルギー効率と持続可能性を最適化させるとしている。

 履歴センサーデータを活用して学習させたモデルに基づく初期の結果では、NRELのデータセンターで過去に発生した事象が正常に予測または識別されており、今後のデータセンターで予測分析を利用できる可能性を示しているという。

 HPEでは、エクサスケール時代のデータセンター環境を管理、最適化するためには、AIと自動化機能の開発が必須だと説明。エクサスケールのスーパーコンピュータは、既存システムの1000倍以上のスピードで稼働するが、AI駆動型の運用をエクサスケールのスーパーコンピュータで行うことで、優れたエネルギー効率での運用が可能となり、高性能で自動化された機能により、耐障害性と信頼性も高められるとしている。

 また、今回のプロジェクトでは、TensorFlow、NumPy、Sci-kitなどのオープンソースソフトウェアとライブラリを活用して、機械学習アルゴリズムを開発。リアルタイムでアルゴリズムをデータに適用する前に、IT部門と施設の膨大な量の遠隔測定データを様々なソースから収集、処理、分析を行うことや、ビッグデータ分析と機械学習の活用による、データセンター施設にあるさまざまなツールやデバイスから入ってくるデータの分析などに今後注力していくとしている。

 HPEでは今後、HPE High Performance Cluster Management(HPCM)システムの強化に伴い、クラスタの完全なプロビジョニング、管理、モニタリングといった追加機能を提供していく予定。これにより、さらに高速に10万ノードまで拡張することが可能になるという。このほかにも、ITインフラストラクチャ上のデータをモニタリング、収集、分析するクラウドベースのAI駆動型管理ツールであるHPE InfoSightの統合を試みるテストも計画しており、HPE InfoSightは、起こりうる事態を予測、防止する目的で使用され、サーバー性能の全体的な健全性を維持するとしている。