ニュース

GMOインターネットグループ、AIスタートアップ向けにNVIDIA H100/L4を搭載するGPUホスティング「ConoHa for AI」無料トライアルを募集

 GMOインターネットグループ株式会社は5日、国内ホスティング事業者としては初めて、NVIDIAの最新GPU「NVIDIA H100 Tensor コア GPU(以下、NVIDIA H100)」「NVIDIA L4 Tensor コア GPU(以下、NVIDIA L4)」を搭載した、AIスタートアップ向けのGPUホスティングサービス「ConoHa for AI」のトライアル版を8月に提供開始すると発表した。

 GMOインターネットグループでは、LLMや生成AIへの注目の高まりを受け、「ChatGPT業務活用コンテスト」をはじめとする、グループ全パートナー(従業員)のAI活用を推進する取り組み「AI(愛)しあおうぜ!」や、スタートアップを支援するハンズオン型CVC「GMO AI & Web3株式会社」がAIスタートアップを支援対象に拡大するなど、グループ全体でさまざまなAIの活性化に向けた取り組みを推進していると説明。また、グループ第2本社にNVIDIA H100を設置し、パートナーがGPUを利活用できるよう環境を整えるとともに、本格展開に向けた検証を実施している。

 一方、AI技術は急速に発展しており、多くのAIスタートアップが誕生しているが、これらのスタートアップは革新的な製品やサービスを開発する可能性を秘めているものの、成長するには資金やインフラを含めたリソースが必要だと説明。こうした背景を受け、GMOインターネットグループでは、国産ホスティング事業者として培ってきた大規模インフラ技術・ノウハウを活用し、超高速GPU「NVIDIA H100」「NVIDIA L4」を搭載したホスティングサービス「ConoHa for AI」のトライアル版を提供するとしている。

 NVIDIA H100は生成AIや大規模言語モデル(LLM)など、NVIDIA L4は画像生成AIなどの推論AIワークロードにそれぞれ特化した超高速GPU。

 トライアル版では、NVIDIA H100またはNVIDIA L4を専有して利用できる仮想サーバーの提供を予定し、これによりAIスタートアップの開発支援を進める。NVIDIA H100の演算性能は、従来モデルの「NVIDIA A100」と比較して、ピーク単精度演算性能[FP32]で最大4.8倍の演算性能を発揮する。

 トライアルの募集対象は、AI関連のアプリ開発を行うスタートアップ含めた企業または個人事業主。応募期間は6月5日~7月14日。利用開始時期は8月中旬予定。無償提供期間は8月~10月31日予定。トライアル版は無料で利用できる。

 GMOインターネットグループでは、利用した際のレポートを製品にフィードバックし、2023年内の正式版サービス提供を目指す。