ニュース

マクニカとneoAI、「ローカルLLM」を用いた生成AI基盤の構築・導入支援において協業を開始

 株式会社マクニカと株式会社neoAIは7日、大規模言語モデル(LLM)をオンプレミスで利用可能にする生成AI活用ソリューションの提供に関して、協業を開始すると発表した。マクニカが持つAI環境構築の専門知識と、neoAIの先進的なAI技術を融合し、国内企業のデジタルトランスフォーメーション(DX)加速と生成AI実用化を推進するという。

 生成AI環境を構築する場合、現在はパブリッククラウド事業者が提供するクラウド上へのLLM環境構築が主流となっているものの、例えば、設計/製造プロセスデータ、顧客情報などの機密性の高いデータを扱う場面では、クラウドの利用による情報漏えいやセキュリティの懸念があり、オンプレミスで実装可能な「ローカルLLM」に注目が集まっているという。

 こうしたローカルLLMは、セキュリティ面の利点に加えて、企業固有の特定業務やタスクに特化させることが可能だったり、長期的にはコスト面でのメリットを提供できたりするものの、その構築にあたっては、GPUリソースの調達からはじまり、LLMの推論/学習/RAGに関する専門的な知見が求められるAIインフラ構築が必要になるとのこと。また構築後は、アプリケーションの開発・保守やGPUインフラの運用管理など、技術的にも人的にもリソースの負担がかかり、多くの企業にとって障壁になっている。

 そこで、AI環境構築の専門知識を持つマクニカと、生成AI活用における実績とノウハウを持つneoAIが包括的な支援体制を組み、構築から導入、伴走支援まで、一気通貫で企業の生成AI活用をサポートするとした。

 なお支援にあたって、マクニカは、最適なハードウェアと生成AI開発・展開を加速するソフトウェアを提供し、LLMをベースとした環境構築を実施する。

 一方のneoAIは、最新のLlama 3.1、Gemini 2や、neoAI独自開発の日本語LLMなど、さまざまなローカルLLMを活用し、RAGを含めた生成AI環境をオンプレミスで提供するとした。また、neoAIの法人向け生成AIオールインワンパッケージ「neoAI Chat」の導入により、スクラッチ開発と比較してコスト削減と導入期間の短縮を実現しつつ、高品質なAIソリューションを展開可能。さらに、neoAIの学習ノウハウを生かして、企業固有のデータで追加学習を行ったLLMの構築まで、幅広くサポートするとしている。