Infostand海外ITトピックス
「Google Duplex」の衝撃 機械と分からない話し方のAI
2018年5月14日 11:33
機械が話していることを明確に
Google Duplexは開発者たちの称賛を浴びたが、すぐにあちこちから懸念が浮上した。人間と区別がつかないようなAIに問題がないのか? ということだ。
ソーシャルメディアの専門家Zeynep Tufekci氏は早速、「相手の人間をだましている」「恐ろしい。シリコンバレーは倫理を失ってしまった。方向性がなく、何も学んでいない」とツイートで批判した。
オーストラリアのニューサウスウェールズ大学でAIを専門とするHussein Abbass教授はコメントを出し、「GoogleのAIデモは重要な問題を提起する。それは相手が機械であることを知る権利の有無だ」と述べている。
Abbass氏自身は、「機械は、まず機械であることを伝えなければならない」と考える。デモで、Google Assistantが会話の初めに「クライアントに代わって電話をしている」と機械であることに触れなかったことを挙げながら、「だましの要素があり、AIが倫理に背いて行動している」と指摘する。もし、機械であることを伝えていれば、「会話を続けるかどうかは、相手次第だ」とも言う。
こうした批判や懸念を受けて、Googleもコメントを発表した。CNETなどによると、同社は「技術の透明性が重要であることは理解している」「情報開示を組み込むように設計しており、システムが適切に名乗るようにする」と約束した。
それでも批判は残る。CNETは「透明性というなら、なぜロボットのインターフェイスを隠す必要があるのか? 『mm-hmms』など、わざわざ人間らしく見せるようなことをせず、スムーズに話すだけで良いではないか」と疑問をぶつける。そして「フェイクニュース、加工された写真など、われわれは既に、何を信頼すべきかという問題を抱えている。(Google Duplexで)今度は、自分の耳すら信じられなくなる」と続ける。
では機械はどう名乗れば良いのだろう――。The Vergeは「もしもし、ロボットですが……」と言えば、人は電話を切ってしまうだろう、とした上で、「もう少し微妙な形で(機械であることを)示す、または特別なトーンを入れる」などの案を挙げている。
機械が人間のように見せかけることには、倫理的な問題だけでなく、詐欺など悪用を生むとの指摘も多い。英バース大学のJoanna Bryson准教授(AI倫理)は「(人間と見せかける機械は)悪用の範囲が大きく増す」として、企業が自主的に規制するだけでは不十分だと主張する。「規制がなければ、技術を悪用する企業も現れるかもしれない」とThe Vergeに語っている。