Infostand海外ITトピックス

「ついにロボットが感情を持った?」 Googleの人工知能実験

マシンの正体は「人工無脳」

 「哲学的会話」は非常に面白い。確かに、人間のしつこい質問にマシンが怒り出したように見える。だが、機械が感情を持ったというのは間違いだ。Forbesに寄稿したテクノロジーコンサルタントのGil Press氏は、メディアの解釈の行き過ぎにクギを刺している。

 「(マシンの)“態度”は明らかに、相手の人間が前に言ったことに基づく“正しい”受け答えのモデルから計算処理(“予測”)したものだ」とPress氏は言う。そして、研究者が発見したポイントは、大量のデータで訓練したニューラル・ネットワークが、新しい質問を自ら生成できたことだと強調する。さらに、「ジャーナリストたちが“脳のような”マシンを夢見続けていることに、著名な研究者たちはがっかりしている」というUC BerkeleyのAI研究者Michael Jordan氏の言葉を引用している。

 実際、このマシンは本来の意味の「人工知能」ではない。知性はなく、言葉に反応するだけのプログラム「chatbot」だ。chatbotは知能でも知性でもないので、日本では「人工知能」と対比して、「人工無脳」とも呼ばれてきた。

 「哲学的会話」はよくできているが、ほかの会話例ではマシンはあまり賢くない。

人間: 職業は何ですか?
マシン: 弁護士です
人間: 何をしてますか?
マシン: 私は医者です。

 とんちんかんだ。ほかにも「クモの足は3本」「10-2は72」といった変な間違いをしている。

 WIRED.comによると、ニューラル・ネットワークを会話に利用しようという研究のアイデアはVinyals氏の発案だが、相談を受けたLe氏は、うまくいくとは信じられなかったと語っている。「Vinyalsが、この複雑なことを機械学習にやらせようと言った時は、すごく驚いた」(Le氏)という。

 実験は初期段階だという。「このモデルを実際の会話に適用できるようにするには、かなりの改良が必要だ。多くの弱点の中で、とりわけ、理路整然としたパーソナリティが欠落していることが、『チューリングテスト』合格を難しくしている」と論文は結論している。チューリングテストは、機械が知的であるかを判定するテストで、例えば、機械であることを隠してテキストだけで会話し、相手の人間に見破られなければ合格といった方法をとる。

(行宮翔太=Infostand)