ニュース

GMOインターネット、機械学習・ディープラーニング向けGPUサーバー「GPUクラウド byGMO」を提供開始

 GMOインターネット株式会社は28日、機械学習やディープラーニング用途に向け、NVIDIAのGPU「Tesla V100」を搭載したクラウドサービス「GPUクラウド byGMO」の提供を開始した。

 「GPUクラウド byGMO」は、GPUにTesla V100を採用するとともに、高速インターコネクト「InfiniBand EDR」と分散ファイルシステム「Lustre」を組み合わせた高速演算リソースを、ベアメタルサーバーとしてクラウド経由で提供するサービス。顧客は自社で設備投資をする必要なく、必要なときに使いたい分だけ計算(GPU)リソースの調達が可能となる。サービス開始時点では月額料金での提供となるが、今後、時間課金のプランも提供する予定。

 サービスでは、GPU向けのプログラミング環境として、「OpenCL」やNVIDIAの提供する「CUDA」などのソフトウェア開発環境をセットアップした状態で提供。また、コンテナエンジンに「Singularity」を採用することで、マルチノードによる大規模な学習に対応し、Dockerイメージをそのままインポートすることも可能で、環境に合わせたセットアップを最小限に抑え、簡単に実行できる。

 ファイルストレージおよびGPUサーバー間の通信において、広帯域かつ低レイテンシの高速通信を実現するため、科学技術分野における並列計算機やHPCで利用される高速インターコネクト「InfiniBand EDR」を採用し、GPUサーバー間およびGPUサーバー/ファイルストレージ間の通信において100Gb/sの超高速転送を可能にしている。

 ファイルサーバーには、HPCや、ゲノム分野など、大規模な解析、シミュレーション用システムにおいて多くの利用実績を持つ分散ファイルシステム「Lustre」を採用。ファイルサーバーのデータへのGPUサーバーの高い読み込みと書き込みを可能にするとともに、数台~数万台のGPUサーバー間でのデータ共有を実現する。これにより、GPUサーバーでの大量のデータ処理を可能にする。

 また、超高速ノード間接続を可能にするNVIDIA NVLinkテクノロジーにより、PCIeの帯域幅を拡張。1台のサーバーにつき最大4基のTesla V100を相互接続したシステム構成のプランを用意する。これにより、通常のPCIeのみで相互接続した際の帯域幅と比べて約5倍の速度を実現し、より高いパフォーマンスを発揮する。

 GPUクラウド byGMOのサーバー仕様は、CPUがXeon Gold 5122(4コア、3.60GHz)×2、OSがUbuntu 16.04、メモリが192GB、ストレージがSSD 480GB+Lustreファイルストレージ。設置場所は国内。提供プランと価格(税別)は、1GPUプランが初期費用88万2000円、月額費用9万7000円。2GPUプランが初期費用156万円、月額費用14万2000円。4GPUプランが初期費用288万円、月額費用23万円。

 また、GMOインターネットでは、AIや機械学習を用いた先端技術への取り組みの一環として、GPUを搭載したインフラ基盤を順次整備し、GMOインターネットグループにおけるネット証券、EC、ネット広告をはじめとするAIや機械学習と親和性の高い関連事業分野での技術研究やサービス活用を進めていくと説明。

 これに合わせ、GPU環境をまとめて保有することによるリソースの有効活用として、GMOインターネットグループのエンジニア職は、「社内エンジニア制度」を通じていつでもGPUリソースを利用可能とする。エンジニアが使いたいときに使える環境を社内に整えることで、研究やサービスへの活用スピードが早まることが期待できるうえ、AIや機械学習などだけでなく、GPU環境を活用した新しいアイディアを生み出す土壌を作りたいとしている。