Infostand海外ITトピックス

着衣写真もヌードに AIが可能にするフェイク画像への深い懸念

「自分が作らなくても、別の誰かが作る」

 DeepNudeはネット社会に衝撃を与えた。リベンジポルノ被害者のサポートなどを行っているNGO「Badass」の創業者兼CEO、Katelyn Bowden氏はMotherboardに、怒りを隠せないコメントをしている。「本当にゾッとする。このようなアプリの登場によって、実際に裸の写真を撮られなくても、誰もがリベンジポルノの被害者になりうる。こうした技術は一般に入手可能にすべきではない」

 また、メリーランド・スクール・オブ・ロー大学の教授、Danielle Citron氏も「性的なプライバシーの侵害だ」とコメントしている。

 Motherboardは、「deepfake技術が2017年に登場した当初から、偽の情報ツールとして使われることを危惧(きぐ)してきた」と言う。DeepNudeは誰もが簡単に使え、しかも高速に偽ヌード写真を生成できる。悪用を防止する「FAKE」の文字も、Photoshopで簡単に削除できるという。つまり、誰かの存在しないヌード写真を作ることは十分に可能だし、簡単ということになる。

 Slateは、MotherboardがDeepNudeで生成された写真を記事につけることも批判した。「これらの画像は実際の人々を傷つける」「ニュースメディアがニュース価値のため、グラフィックや不快な素材を掲載することはある。だが、ジャーナリズムの公益が、個人に与える損害を超えるのかはあいまいでもある」と指摘。そうした素材の掲載自体を控えるべきだと主張する。

 渦中のDeepNude開発者はMotherboardに対し、「おもちゃのX線メガネ(DeepNudeのロゴにも使っている)があったら面白いだろうという一心でやってみた」と開発の動機を語っている。

 また、「自分は性的なのぞき見が好きなのではなく、技術者だ」と言い、「(こうしたアプリは)技術的には準備ができている。悪意を持つ者にとって、DeepNudeであったかは関係ない。もし、自分が開発しなかったとしても、この1年のうちに別の誰かが作っただろう」と述べている。