ニュース

GMOインターネットグループ、「NVIDIA H200 GPU」搭載環境の性能検証を公表

生成AI向けクラウドサービスを11月下旬提供

 GMOインターネットグループ株式会社は26日、「NVIDIA H200 Tensor コア GPU(以下、H200 GPU)」とAIワークロード専用に設計されたイーサネットファブリック「NVIDIA Spectrum-X(以下、Spectrum-X)」搭載環境の性能を検証し、結果を開示した。

 今回の検証では、グラフニューラルネットワーク(GNN)のベンチマークと、大規模言語モデル(LLM)のファインチューニングの2つのシナリオを実施し、いずれのケースでもH200 GPUは「NVIDIA H100 Tensor コア GPU(以下、H100 GPU)」よりも高い性能を発揮することを確認した。

 GNNのベンチマークでは、H100 GPUの所要時間12.1分に対して、H200 GPUは8.0分と約1.5倍の高速化を実現した。これは、H200 GPUがH100 GPUに対してメモリ搭載量が約1.7倍に強化されたことで、その演算性能が最適化されたためと考えられるとしている。また、H200 GPUの2台構成では、GPU数の増加により、ベンチマーク時間が短縮できていることも確認した。

GNNのベンチマーク結果

 さらに、実際のGPUでの学習時間に焦点を絞り、LLMファインチューニングにかかる時間を測定した。LLMのファインチューニングにおいては、H100 GPU搭載機材では103分かかっていた学習時間が、H200 GPU搭載機材では50分で完了し、処理速度が約2倍となった。

 GNNのベンチマーク結果と同様に、LLMにおいても、H200 GPUがH100 GPUと比べてメモリ搭載量が増加したことで、モデルがよりGPUの性能を生かした学習を行えることが分かったと説明。さらに、H200 GPU 2台構成では、1台構成比で処理速度が約2倍の25分で学習が完了しており、GPUが増えたことによって学習時間が短縮されるとともに、Spectrum-Xの採用によって複数台構成でもその性能を最大限に引き出せるとしている。

LLMファインチューニング結果

 GMOインターネットグループでは11月下旬に、計算性能においてAI開発の効率化に貢献するサービスとして、H200 GPUとNVIDIA Spectrum-Xを国内で初採用した生成AI向けのクラウドサービス「GMO GPUクラウド」を提供開始する予定。