Infostand海外ITトピックス
着衣写真もヌードに AIが可能にするフェイク画像への深い懸念
2019年7月8日 11:17
AIによる画像処理の進化は目覚ましい。だが、悪用される恐れも大きい。着衣の女性の写真をヌード写真に加工する「DeepNude」というアプリがネット上に出回った。セレブの偽ヌードが実際に作成されたほか、「リベンジポルノ」に使われる恐れもある。作者は撤回したが、複製が出回って止めることができなくなっている。ディープラーニングで偽画像を生成する「deepfake」と呼ばれる技術の例だ。
深層学習で、ありえない画像を生成する
Guardianは先ごろ、AIを使って絵画や写真を加工する技術「deepfake」を取り上げた。謎の微笑みを消して表情豊かに話すモナリザや、故人の画家サルバドール・ダリがジェスチャーを交えて話す動画を紹介している。deepfakeは、「深層学習」(Deep Learning)と「偽」(fake)を組み合わせた言葉で、アルゴリズムには主にGAN(敵対的生成ネットワーク)が利用されている。2つの動画はSamsungのAIラボで生成されたものだ。
deepfakeは、こうした「ありえないような動画」を作り出し、本物か偽物かわからないリアルなエンターテインメントを作り出す。だが同時に、この技術は大量のフェイクを生み出す可能性があるとの懸念の声も上がっていた。DeepNudeは、その懸念が現実になったものだと言える。
DeepNudeはAIを用いて洋服の部分を裸にすり替える。裸にできるのは女性の写真のみだ。登場したのは6月23日だが、Motherboardが6月27日付で報じると、あっという間に広まった。驚いた開発者は同日、公式ツイートで終了を発表した。
「個人のエンターテインメントのために作成し、管理しながら数カ月販売しようと思っていたが、口コミで広まってしまい、トラフィックを制御できなくなった。要求を完全に過小評価していた」と述べている。
Motherboardによると、アプリはWindows版とLinux版があり、無償版では女性の胸などを隠すウォーターマークが入るが、50ドルの有償版ではウォーターマークはなし。その代わりに、生成した写真には「FAKE」というラベルがつく。
生成される画像のリアルさにばらつきはあったようだが、さまざまな画像を試したMotherboardによると、正面を向いたビキニ姿の女性の場合、生成されたヌード写真はかなりリアルだったという。
DeepNudeアプリは公開停止したにもかかわらず、あちこちで入手できる状態が続いている。「4chan」などのフォーラムやメッセージボード、Telegramのチャネル、そしてGitHubにもあるようだ。
DeepNudeのライセンスは「他のソースからソフトウェアをダウンロードしたり、他の方法で共有することは、われわれのWebサイトの使用条件に反する」としているが、一度誰かの手に渡ると管理できなくなる、というインターネットの特性通りの現象が起きている。