イベント

DXにおけるNetAppの役割は――、NetApp Innovation 2019 Tokyo基調講演レポート

 ネットアップ株式会社は12月11日、年次イベント「NetApp Innovation 2019 Tokyo」を開催した。テーマは「データ、新たな推進力」。なお、大阪では「NetApp Innovation 2019 Tokyo」が2019年1月16日に開かれる。

 基調講演の開会のあいさつに立ったネットアップ合同会社 代表執行役員社長の岩上純一氏は、「これからグローバル化の中で生き残っていくには、データ化によるデジタルトランスフォーメーション(DX)が欠かせない」と語った。

 この言葉のように、基調講演全般にわたって、DXとそこにおけるNetAppの役割について語られた。

ネットアップ合同会社 代表執行役員社長 岩上純一氏
DX時代のNetAppのバリュー

DXのためのNetAppソリューション

 米NetAppのBrendon Howe氏(Senior Vice President ONTAP Data Services)は、「Empower Your Business with Data」と題して、DXに向けたNetAppソリューションについて語った。

 講演中では、大手パブリッククラウド上で利用できるフルマネージドストレージサービス「Cloud Volumes Service」について、AWSの東京リージョンでの提供を開始したこともアナウンスされた。

米NetAppのBrendon Howe氏(Senior Vice President ONTAP Data Services)

 Howe氏は、DXはデータ中心のビジネスであると説明した。日々膨大なデータが生まれ、データプラットフォームに集まり、そこからさらに大量のデータが生まれる。DXではそこから、ビジネスをどう変化させればよいかを分析する。

ここで氏は、NetAppの柱となるテーマとして、既存のシステムをクラウドに対応させる「MODERNIZE」、利用企業が自分で構築や保守してオンプレミスでもクラウドのように使える「BUILD」、イノベーションを生かす「INSPIRE」の3つを掲げた。

 NetAppはもともとストレージ機器ベンダーだが、最近ではクラウド向けのソリューションも手掛けている。「企業はアプリケーションを使ってデータを扱うのが目的だ。NetApp Cloud Data Servicesによりユーザーは複雑な運用から解放される。大手パブリッククラウドとのパートナーシップによって、われわれもクラウドアーキテクトやSRE、データサイエンティストといった、これまでより多くの層にリーチできている」とHowe氏は語った。

NetAppの3つのテーマ:MODERNIZE、BUILD、INSPIRE
大手パブリッククラウドとのパートナーシップ

パブリッククラウド上のストレージCloud Volumes Service

 クラウドの利用形態ごとにNetAppソリューションを見ると、まずオンプレミスで動いている既存ワークロードをクラウドに拡張する用途では、クラウド向けストレージOSのCloud Volume ONTAPが相当する。続いて、クラウドのみでワークロードを展開する用途では、フルマネージドストレージサービスのCloud Volumes Serviceが相当する。

 既存ワークロードをクラウド向けにリファクタリングする用途では、Kubernetes用ストレージ管理のNetApp Kubernetes Serviceが相当する。最後に、ハイブリッドクラウドやマルチクラウドの管理については、監視ツールのNetApp Cloud Insightsが相当する。

 中でもHowe氏は、Cloud Volumes Serviceについて説明した。NetAppをクラウドの中で使えるもので、「簡単なので、ストレージのことを知らなくても使える。もちろん、ストレージのことを知っていればよりよく使える」という。

 特徴としては、数秒間で迅速にボリュームをプロビジョニングでき、高パフォーマンスで高価なリソースから比較的低パフォーマンスで安価なリソースまでカバーする。さらに、ノンストップで変更できるため、例えば負荷のスパイクが発生するときにはコストを上げてパフォーマンスを上げ、負荷がおさまったらまた戻す、といったことができるという。

クラウドの利用形態ごとのNetAppソリューション
Cloud Volumes Serviceの特徴

 Howe氏は、Cloud Volumes Serviceでボリュームを作成するデモ動画を映した。Amazon MarketplaceからCloud Volumes Serviceに進み、ストレージプロトコルやリージョンなど最低限の項目を指定するだけでボリュームが用意されるところが実演された。

 さらに、Cloud Volumes ServiceをAWSの東京リージョン(ap-northeast-1)で提供を開始したこともHowe氏はアナウンスした。

 そのほか、Cloud Volumes Serviceの顧客事例として、ゲノム解析のWuXi NextCODE社が紹介された。同社は膨大なデータを持ち多数の計算リソースを使うため、クラウドに移行する必要があった。そこで、パフォーマンスとコスト効率の両方を追求してCloud Volumes Servicesを採用したという。

Cloud Volumes Serviceのデモ動画:ボリューム一覧
Cloud Volumes Serviceのデモ動画:ボリューム作成
AWSの東京リージョンでCloud Volumes Serviceを提供開始
ゲノム解析のWuXi NextCODE社のCloud Volumes Service採用事例

クラウドからオンプレミスまで同じ機能を提供するデータファブリック

 さて、このようなDXのデータ中心の世界に向けたNetAppの戦略が「データファブリック」と呼ばれている。「データファブリックとは、1つのソリューションを指すのではなく、一連のソリューションからなる。そこから顧客が必要なものを選べる」とHowe氏。データファブリックによって、オンプレミスからプライベートクラウド、パブリッククラウドまで、ストレージが同じように見えて同じようにコントロールできる。

 Howe氏は「まだサービスとして展開していないが、近日中に登場する」として、NetApp Cloud Centralからさまざまな環境のストレージを管理するデモ動画を見せた。Cloud Centralにログインすると、Cloud Volume ONTAP、オンプレミスのONTAPなど管理下にあるさまざまな種類のストレージが一覧表示される。そして、画面左にはデータファブリックのさまざまなサービスが並んでおり、それぞれの環境に適用できる。「ストレージの機能をすべてAPIを介して利用できるため、このようなことができる」(Howe氏)

 Howe氏は「これから数ヶ月でいろいろなサービスを展開し、みなさんのデータファブリックを構築していただけるようにする」と説明して、「われわれは選択肢が重要だと考えている」と語った。

データファブリックの要素
データファブリックのデモ動画:さまざまな環境のストレージが並び、左にデータファブリックのサービスが並ぶ

NetApp ONTAPの機能をAIデータ管理に生かす

 続いて登場した米NetAppのSantosh Rao氏(Senior Technical Director)は、8月に発表されたAIコンバージドインフラ(検証済みアーキテクチャ)「NetApp ONTAP AI」を紹介した。

 Rao氏は、従来の機械学習は仮説から学習していたのに対し、ディープラーニングはデータから学習するとして、そのための膨大なデータを扱う基盤をNetAppが持っていることを強調した。

 機械学習のデータパイプラインについてRao氏は、エッジにおけるデータの取り込みかや、コアにおけるデータの前処理・トレーニング・モデルのシステムの導入、クラウドへの展開という流れを紹介し、それぞれにおけるNetAppプロダクトを挙げた。

米NetAppのSantosh Rao氏(Senior Technical Director)
機械学習のデータパイプラインとNetAppプロダクト

 こうしたデータパイプラインを統合したコンバージドインフラが「NetApp ONTAP AI」だ。NVIDIAのディープラーニング用コンピュータDGX-1とNetAppのオールフラッシュストレージを組み合わせ、小さく始めて大きく拡張できる。

AIコンバージドインフラ「NetApp ONTAP AI」
展示会場で展示されたNetApp ONTAP AI

 このNetApp ONTAP AIへのデータ移行形態として、Rao氏は5種類を示した。既存のデータを移動する場合、データのコピーをとらずAIに導入するデータインプレースの場合、コールドストレージに蓄積されたデータを活用する場合、クラウドにあるデータをAIに導入する場合、クラウドに近いコロケーションにあるデータをクラウド上にAIから利用するニアクラウドソリューションだ。

 このうち、既存のデータを移動する場合については、ONTAPのData Moverを使って移動する方法をRao氏は紹介した。また、データインプレースの場合については、ONTAPユニファイドデータレイクを使ってデータパイプラインを構築する方法を氏は紹介した。

 また、従来の機械学習クラスターの課題として、Rao氏はコンピューティングのスプロール(無秩序な拡大)やデータの過剰コピーを挙げ、それに対してONTAPのユニファイドデータによってAIとビッグデータのデータ統合を実現する方法などを説明した。

5種類のNetApp ONTAP AIへのデータ移行形態
既存のデータを移動する場合
データインプレースの場合
ユニファイドデータによるAIとビッグデータのデータ統合

 NetApp ONTAP AIの顧客事例としてRao氏はまず、アジア太平洋地域の大手通信事業者が、DGX-1を25ノード搭載したシステムを導入した例を紹介。また、同地域の大手自動車メーカーがDGX-1を3ノード搭載したシステムを導入した例を紹介した。

 そのほか、世界的な大手eコマース企業で、汎用サーバーに60基を超えるNVIDIA GPUを搭載し、NetAppストレージを導入した例もRao氏は紹介した。

 最後にまとめとしてRao氏は、AIにNetAppを選ぶ理由として、パフォーマンスやストレージ容量、NFSでの実績、エッジからクラウドまでのカバー、コンバージドインフラでの歴史、広範なパートナーなどを挙げた。

アジア太平洋地域の大手通信事業者と自動車メーカーの事例
大手eコマース企業の事例
AIにNetAppを選ぶ理由

AI+IoT+クラウドでDX

 基調講演では、大阪大学 先導的学際研究機構 教授(元 株式会社 NTTドコモ 執行役員 イノベーション統括部長)の栄藤稔氏による講演「経営視点から考察するデジタル戦略」も行われた。

 栄藤氏はまずAIについて「私は、AIはシンギュラリティの線を越えない派」とし、AIをさまざまな自動化を進めるものとしてとらえ、「AIはDXのキーコンポーネント」と語った。

 また、IoTは“通信をともなうデジタル化”と“産業ドメインのオペレーショナルテクノロジー”の融合として、「IoTとAIで、これまでコンピュータと無縁だった産業の自動化が進む」と論じた。

 そのうえで、DXについて、「単に電子化することではなく、まず見える化し、効率化をはかって、その先にシステム連結すること」だと語った。

 そして、そのプラットフォームとしてクラウドの企業における価値を「所有から共有・利用へ変わることで、ベストプラクティスをいつでも利用できる」ことと説明した。

大阪大学 先導的学際研究機構 教授(元 株式会社 NTTドコモ 執行役員 イノベーション統括部長)の栄藤稔氏
IoT+AIにより、これまでコンピュータと無縁だった産業の自動化
DXとは

データセンターライフサイクルを意識したヤフーの新基盤ストレージ

 基調講演では、ヤフー株式会社の吉永伸司氏(テクノロジーグループ システム統括本部 サイトオペレーション本部 インフラ技術2部 部長)による講演「ヤフーのデータセンター戦略」も行われた。氏は、自社が一般に提供するサービスの基盤のためのインフラを担当している。

 ヤフーでは現在、IXやCDNなどのための小規模の都市型データセンターはレンタルで利用し、サービス基盤などの地方や海外の大規模なデータセンターは自社所有している。

 これはもともと、大手町のデータセンターを使っていた第1世代から、地方拠点に拡大してASも取得した第2世代、自社データセンターを設けた第3世代ときて、現在は第4世代にあると吉永氏は説明した。

 今後については、データセンターもサーバーも古くなってくることから、ライフサイクル管理が重要になると考えているという。

 ストレージについては、用途によって複数製品を使い分けている。オブジェクトストレージやNFS、ブロックストレージ、バックアップといった種類がある。これらのストレージの台数はこれからも増え続け、管理が重要な要素だと考えている吉永氏は語った。

 このデータサイクルと増大するストレージの課題から、ヤフーでは新基盤ストレージへの移行を決めた。重要視したのが、安定性、最適化、継続性の3点で、特に継続性を重視したという。「データ利用期間はストレージの寿命より長くなるので、マイグレーションを意識した設計をし、サービスへの影響を最小化する」(吉永氏)

 氏は最後に「大手のクラウドベンダーは独自のストレージサービスを提供している。われわれも負けずに魅力的なストレージサービスを社内に提供していきたい」と語った。

ヤフー株式会社の吉永伸司氏(テクノロジーグループ システム統括本部 サイトオペレーション本部 インフラ技術2部 部長)
ヤフーのデータセンターの構成
データセンターライフサイクルと増大するストレージの課題から、新基盤ストレージへ
継続性を最重視