ニュース

NEC、日本語向け大規模言語モデルを独自開発 世界トップクラスの日本語能力を実現

 日本電気株式会社(NEC)は、生成AIにおける日本語大規模言語モデル(LLM)を独自に開発したことを7月6日に発表した。大手LLMと比較して、同等の性能を実現しつつ、パラメータ数を13分の1に抑えたコンパクトさが特徴。また、日本語のベンチマークでは世界トップクラスの日本語能力を実現している。

NECが生成AIにおける日本語大規模言語モデル(LLM)を独自に開発

 この独自のLLMを中心に、顧客個社ごとの生成AI利用に向けて、コンサルティングなどのサービスや、LLMを使うためのソフトウェアおよびテンプレート、データセンターなどをワンストップで支援する「NEC Generative AI Service」を、7月から順次提供開始していくことも発表した。

 また、これらのNECの生成AIの技術やサービスの活用のパイロットケースとして、言語モデルのカスタマイズや、業務アプリケーション開発、環境整備、人材育成などの包括支援と、参加企業同士の交流を支援する「NEC Generative AI Advanced Customer Program」を、9つ(7月6日時点)の企業・大学とともに開始したことも明らかにしている。

 これらに伴い、NEC社内の組織として、研究者やエンジニアや、プロンプトエンジニア、コンサルタントなどのプロフェッショナルからなる専門組織「NEC Generative AI Hub」を、CDO(Chief Digital Officer)直下に7月1日付で新設したことも発表した。

NEC Generative AI Service
NEC Generative AI Advanced Customer Programに参加する9つの企業・大学
専門組織「NEC Generative AI Hub」新設

 なおNECの発表では、すでにこの生成AIの社内業務利用を5月から開始していることも紹介。約2万人、1日約1万回の利用がなされているという。活用方法としては、議事録や報告書などの資料作りに使われているほか、プログラミングへの利用も多いとの話だった。

「すでにReadyになっている状態」

 同日開催された記者説明会において、NEC Corporate EVP 兼 CDOの吉崎敏文氏はまず、今回の取り組みは構想4年であり、全社で取り組んだものであることを強調した。

NEC Corporate EVP 兼 CDO 吉崎敏文氏

 今回の取り組みの趣旨としては、まず、日本市場向けのLLMを開発し、インフラも顧客向けに用意して、すでに「Readyになっている状態」(吉崎氏)になっていること。そしてモデルだけでなく、さまざまなサービスをワンストップで提供して個社サービスを実現していること。そして、NEC印西データセンターにおける顧客やハイパースケーラー事業者とのセキュアな接続を吉崎氏は挙げた。

 そして生成AIにおけるNECの価値として、NECのスパコンによるLLMの開発、NECのノウハウによる業務別のテンプレート、専門性の高いサービスの提供、LLMのオンプレミス提供も準備していることを挙げた。

 なお、吉崎氏は、NEC印西データセンターのMicrosoft Azureとの接続サービスについても触れ、「AzureのOpenAIサービスも視野に入れつつ、NECのLLMをコンバインしながら、新しいサービスを提供していきたい」と語った。今回のプレスリリースにおいても、日本マイクロフトから、エンドースメントのコメントが発表されている。

NEC Generative AIプロジェクトの趣旨
生成AIにおけるNECの価値

LLMに加えてサービスやソフトウェア、データセンターまでワンストップで提供

 今回の発表の内容については、新組織のリーダーであるNEC Generative AI Chief Navigatorの千葉雄樹氏が説明した。

NEC Generative AI Chief Navigator 千葉雄樹氏

 まず専門組織「NEC Generative AI Hub」について。ミッションはNECが全体として持っているアセットを結集して、総力としてLLM・生成AIを事業としていくことだという。コアメンバーは平均年齢34歳ぐらいの若いチームで、全社からコンサルやエンジニア、データサイエンティストなどさまざまな人材が集まっており、欧米の研究メンバーとも連携している。

専門組織「NEC Generative AI Hub」

 「NEC Generative AI Service」のサービスメニューとしては、データセンターから、サーバーハードウェア、LLM、ソフトウェア、サービスと、全方位で顧客を支援する。

 まずサービスとして、企業のLLM活用について、コンサルティングや、ナレッジエンジニアリング、教育サービス、環境構築サービスを7月から提供開始していく。なお、これらにはMicrosoft Azure OpenAI Serviceも利用する。

 8月には、NECの開発したLLMを、「NEC Generative AI Advanced Customer Program」を対象に先行評価開始する。

 また、LLMの利用を支援するソフトウェア群「NEC Generative AI Framework」を10月に提供開始する。

 同じく10月には、NECのLLMをオンプレミスで利用するためのハードウェア基盤「NEC Generative AI Appliance Server」を提供開始する(評価版)。これはNECのLLMがコンパクトに作られたことによって可能となったもので、実際にどのようなハードウェア構成とするかなどについては検討中だという。

「NEC Generative AI Service」のサービスメニュー

 これらのうち千葉氏は「NEC Generative AI Advanced Customer Program」について内容を説明した。中心にあるのがLLMとして、それを生成AIとして利用するのに必要な機能をまとめて提供するものだ。プロンプトのテンプレートや、質問応答強化、NECのモデルを基に顧客のデータを学習させるファインチューニングなどが含まれる。

 プロンプトのテンプレートとは、業種ごとのAIへの質問をテンプレート化することで、複雑なプロンプトエンジニアリングを駆使することなく使えるよう、NECのソフトウェアでギャップを吸収するものだ。

 例えば、セールスのノウハウと顧客データを学習させた状態で、商品一覧と顧客を指定するだけで、その顧客に何の商品をどう勧めるとよいかについて答えを得られるようにすることができる。

LLMを利用するのに必要な機能をまとめて「NEC Generative AI Framework」で提供
業種別テンプレート(と個社データの学習)の例:金融商品の推薦
金融商品の推薦のデモ(説明会後のデモより)

 そうしたユースケースについてNECも手探りな中で、新しく立ち上げた「NEC Generative AI Advance Customer Program」に参加した企業・大学に先行して触ってもらい、一緒に議論しながら作っていくという。NEC Generative AI Advance Customer Programにはさまざまな業界から参加し、全方位的に役に立つ機能群を提供していく。

NEC Generative AI Advance Customer Program
NEC Generative AI Advance Customer Programに参加する9つの企業・団体

高い日本語能力を持ちつつサイズは大手LLMの13分の1

 NECの開発したLLMの特徴については、NEC Corporate EVP 兼 CTOの西原基夫氏が紹介した。

NEC Corporate EVP 兼 CTO 西原基夫氏

 今回の発表は、LLMのファウンデーションモデル(ファインチューニング前のモデル)が開発完了したことだ。このLLMの特長としては、日本語能力が高いことと、軽量であることの2つが挙げられる。

NECのLLMの特長:日本語能力が高いことと、軽量であること

 日本語能力については、自然言語処理分野で標準的なベンチマークである日本語言語理解ベンチマーク「JGLUE」を用いてNECが評価した結果では、本LLMは、現時点で知識量に相当する質問応答で81.1%、推論能力に相当する文書読解においては84.3%と世界トップレベルの性能を達成したという。

 軽量であることとしては、パラメータ数を130億パラメータに抑えており、代表的なLLMと比べると13分の1と1桁小さい。なお、パラメータ数を抑えつつ高い性能を出した要因については、次の小山田氏の説明で後述する。

 モデルの軽量化による顧客のメリットとしては、サーバーの性能や消費電力などのリソースを抑えられること、業務アプリケーションのレスポンスが速いこと、オンプレミスで利用できること、顧客にあわせたファインチューニングが短期間でできることを西原氏は挙げた。

日本語能力
軽量

 こうしたLLM開発に対するNECの能力として、まず国内最大規模のスーパーコンピュータがちょうど2023年3月に全面稼働開始したことで、ファウンデーションモデルを1カ月で構築できたと西原氏は紹介した。

 また、AIの研究で競争力みを持ち、特に実用化されている顔認証ゲートなどに強みを持つ。学会の採択ランキングなどでも毎年ランクインしている。そうしたメンバーも今回の開発で活躍したと西原氏は紹介した。

 さて、前述のとおり、今回の発表はファインチューニング前のファウンデーションモデルだ。これを基にサービスとして、顧客ごとのクローズドデータを定期的に学習させることにより、個社向けモデルを継続的に提供する、と西原氏は語った。

顧客ごとのクローズドデータを定期的に学習

パラメータ数を減らしつつAIスパコンでデータ量と計算量を増やす

 NECのLLMが軽量で高性能を出すことができた仕組みについては、NECデータサイエンスラボラトリー 主幹研究員の小山田昌史氏が解説した。

NECデータサイエンスラボラトリー 主幹研究員 小山田昌史氏

 西原氏も紹介したように、NECのLLMは日本語言語理解ベンチマークで高い性能を発揮している。その一方で大手LLMに比べてコンパクトにできている。小山田氏によると「大手のLLMは最低でもGPU 8枚が必要なため、業務で気軽に使えない。それに対してわれわれのLLMはGPU 1枚から動き、コンシューマークラスのPCでも動く」とのことだった。

高い性能とコンパクトさを両立

 これを可能にしたことには、言語モデルの「スケーリング則」が関わっている。スケーリング則によると、LLMの性能は、パラメータ数、学習データ量、計算量の3つによって決まる。このうち計算量を同じとすると、性能は「学習データ量×パラメータ数」によって決まる。なお、学習データ量は学習に必要なコストに、パラメータ数は運用に必要なコストにつながる。

 このうち海外のトップのLLMはパラメータ数が大きい。これに対してNECでは、パラメータ数を減らしつつ「学習データ量×パラメータ数」(ビジュアライズすると面積で表せる)を同程度にするために、AIスパコンを用いて「データ量(と計算量)をめちゃくちゃ増やした」(小山田氏)という。

パラメータ数を減らしつつ、データ量を増やして性能をキープ

 このデータ量を増やすために、日本語の学習データを大量に用意。さらに英語などさまざまな言語のデータを入れ、それによって日本語の能力が高まることも起きたという。

 これにより、非常に高い性能を現実的なパラメータサイズで実現できたと小山田氏は説明した。

チャット型AIのプロトタイプをデモ

 小山田氏は、ファウンデーションモデルを基に開発したチャット型の生成AIのデモも行った。これはコンシューマークラスのPCで動かしたものだという。なお、チャット型のAIはあくまでプロトタイプで、一般公開などは今のところ考えていないとの話だった。

 このチャット型AIは、自然言語の質問に対して自然言語形式で答えるという、要するにChatGPTなどのような使いかたとなる。チャット型なので、答えについて、問い返したり、条件をつけたりもできる。

チャット型AIのデモ
チャット型AIのデモ(説明会後のデモより)

 またプログラミングについて、企業データのCSVファイルを基に予測するPythonコードを尋ねると、そのとおりのコードが出力された。さらに、「非線形モデルを使ってみて」と精度を上げる指示を加えて、コードをさらに改良するところも見せた。

チャット型AIにコードを書かせるデモ

 また、一般にLLMへの質問の回答は、学習時点で知識が止まっていることが指摘される。これに対してデモのチャット型AIでは、Webの情報もとりこんで、最新の情報で回答するところを見せた。

チャット型AIが最新のWebの情報もとりこんで回答するデモ(説明会後のデモより)

 最後に小山田氏は、NECのLLMは、APIとして一般的に使われているものと互換性があるものを提供していると説明した。そのため、例えばすでに他者のAIを呼び出すシステムで、セキュリティ懸念のためAIを社内で動かしたいときに、そのままバックエンドをNECのLLMに簡単にリプレースできるということだ。