Infostand海外ITトピックス

ついにDeepfake利用の犯罪が成功してしまう AIボイスの“振り込め詐欺”

データが多い有名人はターゲットになりやすい

 Deepfakeはディープラーニングで本物そっくりの動画などを偽造することだ。画像、動画が次々に現れ、フェイクニュースなどへの悪用が危惧されている。今回の事件は、画像だけでなく、音声も十分に悪用されることを実証した。

 Euler Hermesの詐欺問題専門家Rudiger Kirsch氏は「AIを使った詐欺は企業にとって新しい課題だ」とWall Street Journalに述べている。なぜなら、これまでのサイバーセキュリティツールでは、なりすましの音声を検出できないからだという。

 サイバーセキュリティ企業Endgameのデータサイエンス担当ディレクターBobby Filar氏は、簡単に音声偽装のできるサービスが複数あり、「数学の博士号を持ってなくとも使える」と解説している。

 ZDNetは、CEOが偽音声のターゲットになりやすいと指摘する。CEOは人前で話す機会が多く、メディアの露出が多いのはもとより、スピーチ動画がYouTubeなどに掲載されている。データはふんだんにあり、簡単にAIをトレーニングできるのだ。

 BBCによると、Symantecが3件の声のDeepfake事件を確認しているが、いずれもCEOの声を使ったものだった。被害者の経済的損失は数百万ドルに上るという。SymantecのCTO、Hugh Thompson博士は、詐欺師が、データを利用して音声のモデルを構築していることに触れ、「モデルはほぼ完璧」と述べている。

 The Next Webは「AIベースのツールは探求や創造性に利用できるが、同時に、犯罪、騙し、ほぼ(残念ながら)完璧な詐欺も可能にする」と述べている。