Infostand海外ITトピックス

洗練されたLLMほど信頼性が下がる? 人間による訓練がAIに思わぬ影響

 生成AIサービスを支えているのは巨額の資金を投じて開発されたLLM(大規模言語モデル)だ。AI企業各社はLLMの改善に躍起になっている。ところが、そのLLMは、より洗練されたものになるほど信頼性が下がるという研究結果が発表された。AIの開発方向と活用に一石を投じそうだ。

誤った答えを自信を持って返す

 「Larger and more instructable language models became less reliable(より大規模、より指示に従う能力の高い言語モデルは、より信頼性が低下する)」と題した論文が、9月25日、科学誌「Nature」オンライン版で公開された。標題の問題意識のもと、LLMが犯すミスを、その信頼性の進化とあわせて分析し、明らかにしようとした研究だ。

 論文によると、「人間のフィードバックを受けて、より訓練されたモデル」には、分からないことでも「分からない」とは回答せず、誤った答えを返す傾向があることが観察された。また、人間にとって難度が高い問題ほどモデルの正解率が下がる傾向が認められたという。

 初期のLLMは、答えが分からない場合はユーザーの質問を「回避」する(「分からない」と答える、質問をはぐらかす、言い訳するなどの)傾向があった。これに対して最近のLLMは一見妥当な答えを出すが、その答えはしばしば間違っていたという。特に、GPT-4では回避行動がほとんど見られず、誤答率が高かったとしている。

 検証では、OpenAIの「GPT」、Metaの「LlaMA」、国際研究プロジェクトBigScienceの「BLOOM」の3つのLLMファミリーの計32のバリエーションを利用して、質問に対する回答・振る舞いを比較した。モデルは、クローズドからオープンまでの透明性の違いや、各モデルのベースモデルに加えてチャットボットとして調整が行われたバージョンがそろっていることから選んだ。

 検証では、どのLLMも単純なタスクであっても100%の正解はできないという結果も出たという。

 研究者たちは、LLMはどんな問題でもミスを犯す可能性があり、モデルが完璧に機能すると信頼できる「安全地帯」は存在しないとしている。また、LLMが出す誤答は、人間には判断できない高難度の問題で多くなり、しかも、それを自信たっぷりに答えてしまうという。ユーザーにとっては、実に始末の悪い現象だ。