イベント

活用を加速するために知っておきたい、生成AIの“いまと未来”

企業が安心して使える生成AIの実行環境を構築するには──。「クラウドWatch Day “最適な生成AI環境” 構築支援」(主催:クラウドWatch編集部、2024年2月21日)の基調講演に、一般社団法人日本ディープラーニング協会 専務理事の岡田隆太朗氏が登壇。生成AIを中心とする現在のAIについて、企業が導入する意義やポイント、社会におけるルールなどの整備、人材育成など、さまざまな論点を語った。

日本の生成AIへの親和性と、労働人口急減によるAIの必要性

 岡田氏は最初に、時代背景を取り上げた。

 まず、2023年4月に自民党デジタル社会推進本部がまとめた「AIホワイトペーパー」を紹介。ChatGPTを契機に、AIを前提とした新しい国家戦略を作る必要があるという考えからまとめられたものだと語った。

 これを受けて同年5月に「AI戦略会議」が発足し、2023年に7回実施された。これまでの科学技術としてのAIを検討する会議ではなく、ビジネス、法律、倫理など、社会に入れていくことを具体的に話しあう会議になったという。

 そこで話された中では、生成AIと日本の親和性として、研究・技術水準の高さや、ロボット・AIへの肯定イメージに加え、労働人口急減によるAIの必要性が挙げられた。また、AIに関するリスクとして、透明性と信頼性についてしっかり議論しなくてはならないことも出たという。

AI戦略会議
生成AIと日本の親和性
生成AIのリスクについての議論の必要性

AIを活用しないことは企業にとってリスクになる

 続いて、生成AIの基礎について岡田氏は解説した。

 AIは1950年代からある分野だが、画像認識コンテストでディープラーニングによるAIが一気に認識率を上げてみせた2012年以降、圧倒的に進歩のスピードが上がっていると岡田氏は紹介した。

 自然言語においても、2018年から急速に精度が向上した。これがGPTなどのベースとなっているTransformerだ。

 Transformerによる大規模言語モデル(LLM)は、汎用性の高さが特徴。事前学習により汎用モデルを作り、汎用モデルをもとに事後学習して目的のモデルを作る。この汎用モデルの大きさ(モデルパラメータ)と、事前学習のデータの大きさ(データ量)、学習に使う大きな計算機(計算量)の3つがLLMに必要な3要素であるという。

 LLMでは、この3つを大きくすれば大きくするほど性能が上がるというスケーリング則が言われており、GPT-3以降の各社のLLMは一気に規模が大きくなっている。

 一方で、特定の領域に特化したバーティカルLLMのアプローチも研究されていることを岡田氏は紹介した。汎用LLMとバーティカルLLMとの競争では、どちらが勝つかまだ結論は見えていないという。

2012年以降、AIの進歩が加速
Transformerによる進歩
Transformerの汎用性
大規模LLMの3要素
スケール則
特定の領域に特化したバーティカルLLM

 日本の状況については、文章生成やチャットボットなど、既存のAIをAPI経由で使ってサービス化するものが増えていると岡田氏は紹介した。また国内でも一部、独自のLLMを作る動きもある。

 こうした状況をもとに岡田氏は、数年後の市場エコシステムを予想した。まず、汎用巨大LLMやオープンソースLLM、業界特価LLMなどが作られる。それをもとにファインチューニングして個別のモデルを作るところがある。

 そして、それらを使ってアプリが作られる。アプリは、単体のもののほか、業務管理ツールなどに組み込まれるツールも出てくるだろうと岡田氏は予想する。そして、それらを活用してDXが進むというわけだ。さらに、エコシステムが構築され、セキュリティやデータ管理なども現れる。

 こうしたことを背景に岡田氏は、AIは企業にとって「活用しないことがリスク」だと強調した。

日本の状況
日本での独自LLM開発
数年後のエコシステムの予想図
「活用しないことがリスク」

AIの「ガードレール」としてルール作りが必要

 次の話題は、AIの社会実装だ。

 この分野への取り組みとして、岡田氏は所属する日本ディープラーニング協会をあらためて紹介した。現在100を超える団体が参加。IT系だけでなく金融や医療などにも広がり、行政会員も参加しているという。

 活動内容としては、利用促進や社会提言、国際連携などを行いながら、人材育成にも取り組む。人材育成においては、資格試験として、ビジネスマン向けのG検定とエンジニア向けのE資格を実施している。

 特に大事な活動として、利用促進や社会提言を岡田氏は紹介した。中でも「ITガバナンスとその評価」をテーマとした活動には3年間取り組み、発表する段階だという。

 座長の江間有沙氏は、政府のAI戦略会議の有識者にも参加している。そのベースになるのは2019年にOECDが発表した「AI原則」で、これに基づいてルールを作っているというが、AIのルール作りを岡田氏は「ガードレール」と表現する。

 岡田氏は、自動車の発展を喩えとして取り上げ、自動車は事故もあるが、なくてはならないものであることから、社会全体で事故なく使っていくための構造を作っていると説明。運転免許制度や、道や信号など整備、保険、メーカーの安全性対策など、エコシステムが作られているとして、「AIも同じように環境を作っていかないといけない」と語った。

 3月には、AI事業者のガイドラインが発表される予定。社会全体や、開発する人、提供する人、利用する人のそれぞれがどのような考え方でいる必要があるかがまとめられているという。

日本ディープラーニング協会
日本ディープラーニング協会の活動
G検定とE資格
利用促進や社会提言の活動
AI戦略会議のルール作り

 また日本ディープラーニング協会では、2023年5月に「生成AIの利用ガイドライン」を発表した。バージョンアップを重ねて、現在10万ダウンロードを超えているという。

 そのポイントとして、AIに関するデータの権利問題を岡田氏は説明した。AIについては、開発するときと利用するときの2箇所で、権利の問題が発生することが言われている。ガイドラインではその利用側について、使っていいAIをホワイト化することや、使っていい用途を明確にすること、入力するときと結果を使うときに注意すべきことについて整理されている。

「生成AIの利用ガイドライン」
権利関係についてのガイドライン

 岡田氏は経産省の資料をもとに、計算リソースの問題についても紹介した。コンピュータサービスの貿易赤字が拡大しており、国内にも作る必要があることや、GPUコンピュータの不足、AI用の省エネ半導体の開発の必要性などが取り上げられているという。

 またAI戦略会議から4月以降に出てくる政策について、リスクへの対応や、国内でのAI開発力の強化、そして利用促進のためのAI人材育成を岡田氏は紹介した。

コンピュータサービスの貿易赤字の拡大
GPUコンピュータの不足
AI用の省エネ半導体の開発の必要性
AI戦略会議から4月以降に出てくる政策

独自AIシステムを構築した日清食品の事例

 次の話題は、企業の利用動向やユースケースだ。

 まず岡田氏はPwCの企業調査結果を紹介した。2023年の春には、生成AIはまだ使うのに抵抗があったが、秋には「やらないとライバルに負ける」という機運になったという。

 続いて岡田氏は、事例やユースケースを紹介した。コールセンターの担当者が、これまでマニュアルを読んで回答していたところを、生成AIによってマニュアルを調べて回答することで、平均の回答時間を50%以上削減できたという。

 このほか、新商品企画での“壁打ち”や、自動応答システム、医療のサポート、新材料開発、映像制作などのユースケースも岡田氏は紹介した。

コールセンターの例
新商品企画での“壁打ち”や、自動応答システムの例
医療のサポートの例
新材料開発の例
映像制作の例

 こうした企業でのChatGPT活用の段階について、岡田氏は、一般的な活用、組織専用GPT、LLMを使った業務改革(DX)の3段階に分け、「まずは2段階目を目指して活用していただければいいかと思います」と語った。

 これを実践している企業として、岡田氏は日清食品を例に挙げた。同社では2023年4月の入社式で、安藤社長が全社でChatGPTを利用すると話し、1カ月で独自システム「NISSIN AI-chat powered by GPT-4」を社内公開したという。

 同社では、ChatGPTの利用のリスクとして、よく言われるように、入力した内容の情報漏えいリスクと、ChatGPTの回答内容をそのまま流用してしまうリスクを考慮。前者についてはAzure OpenAI上のGPT4を使った独自環境を作ることで、後者についてはガイドライン策定などの啓発を繰り返し実施することで対策し、活用できると判断した。

 業務プロセスは一般に、目的を整理し、情報収集、情報整理、ドラフト作成、最終判断と進む。このうち、真ん中の情報収集からドラフト作成までがLLMにやってもらう部分とし、特に最後の部分は必ず人がやると同社では考えた。

ChatGPT活用の3段階
日清食品の事例「NISSIN AI-chat powered by GPT-4」
日清食品が考えたリスク
「NISSIN AI-chat powered by GPT-4」のシステムアーキテクチャ
業務プロセスにおけるChatGPTの活動領域

 こうした先にある第3段階がDXだ。アナログをデータ化する「デジタイゼーション」によりAIを活用できるようになり、それによって業務を効率化し自動化する「デジタライゼーション」につながる。

 このとき、活用しはじめたLLMも最初は精度が出ないが、AIにデータを学習させチューニングしていくことによって性能が上がり、あるところで臨界点を超える。「一度超えてしまったら、同じやり方では絶対に追いつけなくなる」と岡田氏は説明。そのため、今から取り組んで活用しないことがリスクになる、と繰り返した。

データとAIとDX
「AIが臨界点を超えると今のやり方では追いつけなくなる」

「人間対AIの戦いではない」

 最後の話題は、AIを活用する人を増やすための人材育成だ。

 Microsoftが3万人に調査した結果によると、70%の人がAIを使いたいと答えつつ、49%の人が自分の仕事を取られてしまうことを心配しているという。また、世界経済フォーラムの発表した「Future of Jobs Report 2023」によると、これまでは消失する仕事があってもそれ以上に新しい仕事が増えたが、2023年に逆転し、今では消失する仕事のほうが多くなったという。

 また「Future of Jobs Report 2023」では、成長する仕事と縮小する仕事を発表。事務的な仕事が縮小する一方、AIのスペシャリストなどが成長するとされている。

 こうした動向について、「人間対AIの戦いではない」と岡田氏は言う。「自分とその周りの経験だけから学んでAIやデータを使わない人と、データとコンピューティングパワーを利用してその力を活用できると人が、本当の競争になってくる」(岡田氏)。

Microsoftの調査。約半数の人がAIに仕事をとられることを心配
「Future of Jobs Report 2023」より。2023年からは消失する仕事のほうが多くなった
「Future of Jobs Report 2023」より、成長する仕事と縮小する仕事
「人間対AIの戦いではない」
「AIやデータを使わない人と、活用する人の戦い」

 ではどう学ぶかについて、岡田氏は、所属する日本ディープラーニング協会のG検定とE資格をあらためて紹介した。これまでは年3回開催していたが、2024年は6回開催することに決定したという。その中では、これまで土曜に開催していたが、企業から受講するために金曜日にも新しく開催すると紹介した。

 現在、政府のデジタル田園都市構想において、230万人のデジタル人材を育成し、全社会人がリテラシーを身につけることを目指している。その一環である「Reスキル講座」に、E資格も対象になったことを岡田氏は紹介した。これにより、受講費用の50%が支給され、条件を満たせばさらに20%が支給されるという。

 また、「『IT人材と非IT人材』ではなく、全員がデジタル人間にならなければいけない」と岡田氏。そのために「デジタルリテラシー協議会(Di-Lite)」を官民で作ったと氏は紹介した。その中にはG検定も入っているという。

 企業によるG検定の活用事例として、岡田氏はSMBCグループの例を挙げた。全従業員対象のデジタル教育を開始し、G検定を含むDi-Lite推奨の3試験の受験を推奨しているとのことだ。

G検定とE資格
Reスキル講座
デジタルリテラシー協議会
SMBCグループの事例

 最後に岡田氏は、カナダのトルドー首相による「今ほど進化のペースの速い時代は過去にはなかった。ただ今後、今ほど変化が遅い時代はもう二度とこないだろう」という言葉を引用。そのためにしっかり学び続ける必要があると語った。