Infostand海外ITトピックス
ついにDeepfake利用の犯罪が成功してしまう AIボイスの“振り込め詐欺”
2019年9月9日 11:47
データが多い有名人はターゲットになりやすい
Deepfakeはディープラーニングで本物そっくりの動画などを偽造することだ。画像、動画が次々に現れ、フェイクニュースなどへの悪用が危惧されている。今回の事件は、画像だけでなく、音声も十分に悪用されることを実証した。
Euler Hermesの詐欺問題専門家Rudiger Kirsch氏は「AIを使った詐欺は企業にとって新しい課題だ」とWall Street Journalに述べている。なぜなら、これまでのサイバーセキュリティツールでは、なりすましの音声を検出できないからだという。
サイバーセキュリティ企業Endgameのデータサイエンス担当ディレクターBobby Filar氏は、簡単に音声偽装のできるサービスが複数あり、「数学の博士号を持ってなくとも使える」と解説している。
ZDNetは、CEOが偽音声のターゲットになりやすいと指摘する。CEOは人前で話す機会が多く、メディアの露出が多いのはもとより、スピーチ動画がYouTubeなどに掲載されている。データはふんだんにあり、簡単にAIをトレーニングできるのだ。
BBCによると、Symantecが3件の声のDeepfake事件を確認しているが、いずれもCEOの声を使ったものだった。被害者の経済的損失は数百万ドルに上るという。SymantecのCTO、Hugh Thompson博士は、詐欺師が、データを利用して音声のモデルを構築していることに触れ、「モデルはほぼ完璧」と述べている。
The Next Webは「AIベースのツールは探求や創造性に利用できるが、同時に、犯罪、騙し、ほぼ(残念ながら)完璧な詐欺も可能にする」と述べている。