Infostand海外ITトピックス

生成AIの大問題 「幻覚」の現状と議論

「大規模言語モデルは現実世界を知らない」

 幻覚を解消する決定打は、これまでのところみつかっていない。

 OpenAIは、RLHF(Reinforcement Learning from Human Feedback)という手法でChatGPTの幻覚を軽減している。教師なし学習で訓練した大規模言語モデルに、人間からのフィードバックを元にした強化学習を重ねる方法だ。人間にとって好ましい出力をするよう訓練して、有害なコンテンツを除去するほか、回答の真実性も高くなっているという。

 OpenAIのチーフサイエンティストでChatGPTの開発者であるIlya Sutskever氏は、この方法で、いずれ幻覚の問題は解決すると考えている。「人間のフィードバックステップからの強化学習を改善するだけで、幻覚を見せないようにできると期待している」とIEEE Spectrumに述べている。

 これには大物研究者から異議が出ている。

 Yann LeCun氏は、大規模言語モデルには幻覚を生む根本的な欠陥があると主張。テキストだけで訓練したモデルは「現実世界の経験を欠いている」とIEEE Spectrumに述べている。

 もう一人の“深層学習のゴッドファーザー”Geoff Hinton氏(トロント大教授、Google Brainフェロー)もLeCun氏に賛同。人間は世界を言語でなく、「現実の試行錯誤から学ぶ」と述べている。

 幻覚をなくすには、AIが現実世界を正しく認識する必要があるとの考えだ。実際、AI研究者には、テキストだけでなく画像や音声まで合わせた「マルチモーダルモデル」が、より高度なAIを実現すると期待する者が多い。

 これに対し、Sutskever氏は、大規模言語モデルの訓練に使われる数十億語という量を考えれば、抽象的なアイデアもテキストを通じて学べると主張している。ただし、視覚などを合わせて学習するよりも時間はかかるかもしれないという。