Infostand海外ITトピックス

ついにDeepfake利用の犯罪が成功してしまう AIボイスの“振り込め詐欺”

音声詐欺は急増中

 AI技術が犯罪に使われることは、もちろん以前から予想、危惧されてきた。最近でも7月、イスラエル政府のサイバーセキュリティ理事会が、企業の幹部になりすます新しいAI攻撃が見られると警告を発していた。

 音声詐欺は効果的でもある。Wall Street Journalは、音声サンプルを組み合わせてAIを使わずに人の声を模倣する手法を紹介している。2018年のセキュリティカンファレンス「Black Hat」でデモされたもので、数時間分の音源が必要で手間がかかるが、効果は実証済みという。

 有名人ともなると、ずっと沈黙を守ってデータを公開しないというのは難しい。EndgameのFilar氏は「自分の公開した情報が自身への攻撃に使われるという、予想もしない事態に直面することになるだろう」と述べている。

 国連地域間犯罪司法研究所はフェイク動画を検出する技術に取り組んでおり、セキュリティ企業もDeepfakeを見抜く製品を開発しているという。同研究所のAIとロボティクスセンターのトップ、Irakli Beridze氏は、フェイク技術は犯罪を容易にするとWall Street Journalに語っている。

 コールセンターなど音声向けセキュリティのPindropの調査では、音声技術による詐欺は2013年に「2900件に1件」だったのが、2017年には「638件に1件」と、4.5倍に激増しているという。模倣、リプレイ攻撃、音声修正ソフトウェア、音声合成など、技術の進歩や企業の音声技術の採用が背景にある。

 PindropのCEO、Vijay Balasubramaniyan氏は、IoTデバイスの増加とともに音声が主流のインターフェイスになりつつある点を指摘。「高度な音声技術が悪事を働く者の手に渡っている。今後、音声ベースの詐欺行為はますます増えるだろう」と予想している。