トピック

LLMの開発コストを50%削減、地方創生型AIデータセンターが実現する高コスパGPUクラウド

「クラウドWatch Day|AI×データ活用セミナー」レポート

 2025年はAIエージェント元年とされ、情報処理や業務支援など多様な場面での活用が期待されているが、社会実装においては技術面や計算資源の費用といった課題も残る。2025年3月27日、「クラウドWatch Day|AI×データ活用セミナー」(主催:インプレス、クラウドWatch)に登壇したハイレゾの山田岳史氏は、同社が展開する地方創生型AIデータセンターを基盤としたGPUクラウド「GPUSOROBAN(ジーピーユーソロバン)」の特長と、大手クラウド比で50%超のコスト削減を実現する仕組みを紹介。さらに、日本語LLMを用いたRAG(検索拡張生成)システムの構築デモを通じて、生成AI開発に取り組みやすい現実的な環境を提示した。

株式会社ハイレゾ CPU事業部 営業推進部 マネージャー 山田岳史氏

地方創生型AIデータセンターがGPUコンピューティングのコスト削減を実現

 ハイレゾは、GPUを活用したクラウド基盤を提供するスタートアップであり、地方創生を推進しながら展開する業界最安級のサービス「GPUSOROBAN」を提供している。現在は石川県と香川県でデータセンターを運用しており、今年は佐賀県にも新たな施設を開設する予定だ。同社 CPU事業部 営業推進部 マネージャーの山田岳史氏は「廃校や遊休施設をリノベーションしてデータセンター化することで、建設コストを大幅に抑えられます」と語る。

 GPUSOROBANは、インターネット環境さえあれば、どこからでも高性能なGPUサーバーを利用できるサービスで、主にLLM(大規模言語モデル)や生成AIの開発環境として活用されている。提供するのは「高速コンピューティング」「AIスパコンクラウド」「リモートワークステーション」の3種( 図1 )で、なかでも前者2つが生成AI向けの環境として注目を集めている。「高速コンピューティング」は小規模から中規模のGPUを使える環境を、「AIスパコンクラウド」はハイエンドGPUであるNVIDIA H200を搭載したサーバーを、1台から複数台までスパコンのように運用できる構成で提供する(リモートワークステーションはCADやBIM向け)。

図1:GPUSOROBANの提供サービス3種

 クラウドならではの柔軟性や利便性も大きな特長だ。従量課金制を採用しており、インスタンスを起動している時間のみ課金対象となるため、オンプレミス環境と比べて大幅なコスト削減が可能になる。山田氏は「オンプレミスの場合、時期によってサーバーの取り合いや順番待ちが発生しがちですが、クラウドでは柔軟にインスタンスを増減できます」と語る。

 また、OSのほかにNVIDIAドライバ、CUDA、PyTorchなどAI開発に必須のソフトウェアがあらかじめインストールされた状態で提供されるため、環境構築にかかる手間も最小限に抑えられる。Dockerコンテナにも対応しており、他環境で構築した設定をそのまま持ち込んで開発を始めることもできる。さらに、従量課金に加え、予算を固定したい利用者向けに月額固定プランも用意しており、データ転送量などの追加コストも発生しない。

 AIスパコンクラウドでは、NVIDIAの最高峰GPUであるH200を搭載したサーバーを、初期費用なしで月額利用できる。山田氏は「H200を8枚挿したサーバーを1台から利用でき、複数台によるクラスタ構成にも対応しています」と説明する。このプランは、コンテナ化技術やジョブスケジューラー、高速ファイルシステムなどが構築済みの状態で提供されるため、ユーザーはクラスタ設計や構築作業に煩わされることなく、すぐに利用を開始できる。スタンドアローン構成での利用は月額278万円から可能であり、大手クラウドプロバイダーが提供する同等環境(月額約1,000万円)と比べて70%以上も安価だ。長期契約や複数台利用の場合にはさらに割引が適用され、たとえばH200を20台・6ヶ月使用するケースでは、他社と比べて約1億円のコスト削減が可能だという。

 GPUSOROBANの価格優位性を支えているのが、データセンターの構造そのものにある。ハイレゾの施設は、一般的な可用性重視のデータセンターとは異なり、スパコンの計算センターに近い構造を採用している。山田氏は「AWSと比較して約50%低い料金体系のプランもあります」( 図2 )と述べたうえで、「一般的なデータセンターはSaaSやWebサービス、金融取引、基幹業務などを対象に設計されていますが、当社は生成AIやシミュレーションといった研究開発に特化しています」と説明する。過度な堅牢性や冗長性、リアルタイム性の要件が緩和されることで、地方に立地し、地代や電力などのインフラコストを大幅に削減できる点も大きな強みとなっている。

図2:他のクラウドプロバイダーとの料金比較

 セキュリティや技術サポートの面でも評価が高い。ISMS認証を取得しているほか、SSHによる通信の暗号化や、1ユーザーに1台の物理サーバーを割り当てる「占有利用」方式により、他ユーザーからの影響を受けにくい構造を実現している。また、大手企業の要望に応じたセキュリティチェックシートへの個別対応にも対応しており、企業利用における安心感を支えている。

 加えて、技術サポートでは基本操作からGPU環境構築まで、ベストエフォートでの支援体制を整えている。山田氏は「定期的にユーザーアンケートをとっていますが、技術サポートの面で高い評価をいただいています」と述べた。

大手企業からスタートアップまで――GPUSOROBANの活用例

 GPUSOROBANは、法人顧客を中心に2,000件を超える利用実績を持つ。山田氏は「自動車業界や電機メーカーなどの製造業、AIスタートアップなどに幅広くご利用いただいています」と語る。

 ユースケースとしては、ChatGPTの登場以降、画像生成AIやLLMの開発が急増しており、それ以前から需要の高い流体解析や電磁界解析などのシミュレーション用途も依然として根強い。山田氏は導入事例をいくつか紹介した( 図3 )。

図3:GPUSOROBANのAI・シミュレーション関連の導入事例

 あるAI開発企業ではLLMの学習に大容量NVIDIA A100マルチGPUインスタンスを活用。山田氏は「LLMの学習は計算パワーで時間を買う世界。1週間かかっていた計算が1日で終わることもあります」と説明し、学習回数を増やすことでモデルの精度向上が可能になると語った。

 また、デザイン会社が画像生成AIの「Stable Diffusion」を用いて大量のプロダクトデザイン案を生成する用途でもGPUSOROBANが採用された。GPUのパワーとメモリ容量が求められる上、特定業界向けの追加学習によるモデルチューニングにもA100インスタンスが使われている。

 ある大学の研究機関では、タンパク質の分子構造解析用のAIプログラム「AlphaFold」を高速に動かすため、GPUSOROBANが利用された。構造の複雑さに応じて大量のGPUメモリが必要となるため、A100インスタンスが選ばれたという。

 さらに、ある製造業の企業では、電子機器から発生するノイズを解析する電磁界シミュレーションにおいてGPUSOROBANを導入。社内のオンプレミスリソースの競合を避ける目的でクラウドが選択された。

ニッチな情報も正しく回答。RAGシステム構築のデモンストレーション

 講演の後半では、GPUSOROBANの基本的な使い方と、日本語LLMを活用したRAG(Retrieval Augmented Generation)構築のデモが行われた。RAGは外部の情報源を生成AIに追加する手法の一つだ。

 はじめに、インスタンスの作成から起動・停止・接続までの操作手順が紹介された。ハードウェア構成やOS、ソフトウェア、料金プランを選択してインスタンスを作成し、利用中のみ課金される仕組みだ。SSH接続やVisual Studio Code(コードエディタ)からの操作、NVIDIA SMI(NVIDIA管理ツール)やCUDA・Python環境の確認、JupyterLab(IDE)の起動やファイル転送など、基本的な開発環境の整え方も解説された。

 続いて、検索拡張生成であるRAGシステムの構築デモでは、東京工業大学が公開する日本語LLM「Llama 3.1 Swallow」と、RAGに必要な処理──データの分割やベクトル化、検索、プロンプト生成など──をまとめて管理できる開発用フレームワーク「LangChain」を用い、データの読み込みから回答出力までの一連の流れが紹介された。

 LLMの実行には、ローカル環境で大規模言語モデルを簡単に動かせるツール「Ollama」を使用した。デモでは、Wikipediaに掲載された人気漫画の記事から文章を抽出し、1000トークンごとに分割。「intfloat/multilingual-e5-large」という日本語を含む多言語対応のAIモデルで数値データ(ベクトル)に変換し、FAISSという検索用のデータベースに登録した。

 ユーザーがその漫画について質問を入力すると、関連情報を検索して集め、それらを元にLLMに渡す文章(プロンプト)を自動で生成。これを使ってLLMが回答を出力する仕組みだ。

 実際のデモでは、漫画キャラクターの特徴や行動理由を尋ねる質問に対し、Wikipediaの情報を正確に参照した回答が生成された。山田氏は「ニッチな情報にも正しく対応しており、RAGが的確に機能していることがわかります」と述べ、最後に「このような日本語LLMとRAGの検証をGPUSOROBAN上で簡単に行うことができます。ローカルLLMやRAGに興味がある方はぜひGPUSOROBANを試していただけると幸いです」と締めくくった。

●お問い合わせ先
株式会社ハイレゾ
https://highreso.jp/