Infostand海外ITトピックス

家庭内の会話を勝手に録音・送信 AIアシスタントの“暴走”相次ぐ

 知らないうちに私的な会話を録音して送信した。勝手に買い物を始めた。笑い出した――。AI音声アシスタントのアクシデントが相次いでいる。言葉の聞き取りミスが発端のようだが、これらが話しかけるデバイスであることを考えると、十分に起こりうる事故でもある。われわれはAIアシスタントと、どう付き合えばよいのだろう。

Alexaが命令を聞き違う

 AmazonのAIアシスタント「Alexa」のアクシデントが続けて報じられている。アリゾナ州のテレビ局KYMAは、AIスピーカーのAmazon Echoが頼んでいないゲームデバイスをAmazonに注文する誤作動があったと伝えた。ユーザーの女性は業務のミーティング中だったという。また、ワシントン州のTV局KIRO7は、オレゴン州で、Amazon Echoが、知らないうちに家庭内での夫婦の会話を録音して連絡先の同僚に送信していたと報じた。いずれも5月の事件だ。

 勝手な注文をされた女性は「怖い」と話している。また家庭内の会話を送信された妻は、家の温度や照明の制御のため複数台のAmazon Echoを使っていたが、すべてオフラインにして、「二度とオンラインにしない」とテレビに語っている。夫婦はその時、家の床の話をしていたといい、「完全なプライバシーの侵害」と憤っている。

 Amazon側は説明を迫られた。誤注文については「音声による注文を無効にできる」と回答。会話の送信については、調査結果を公表している。調査では、起動コマンド「Alexa」に似た音を聞き取って起動。さらに続く言葉が「メッセージを送って」と聞こえたようで、Echoは「誰に?」と聞き返し、背景の会話からコンタクト先にある名前に聞こえるような言葉を拾ったのだという。送信前に「○○ですね?」と確認し、「そう(right)」という言葉が聞こえた(ような)ので送信した、としている。

 この誤送信は、偶然が重なったとも言えるが、それでも実際に起こった。Amazon側は「このようなことが起こりにくいような対策を検討している」と述べている。

 Alexaの“暴走”は3月にも発生していた。「笑い出す」というものだが、これも聞き間違いが原因で、ほかの言葉を「Alexa, laugh(Alexa、笑って)」と聞き取ったためとAmazonは説明している。New York Timesによると、同社は対策として、「Alexa, can you laugh?(Alexa、笑ってくれる?)」と言わないと笑わないように設定変更したほか、すぐに笑うのではなく、まず「Sure, I can laugh(もちろん、笑いますよ)」と返してから、笑うようにしたという。