相次ぐセクハラ・強制わいせつスキャンダル...海外ではAIによる「新たな性犯罪」が拡大

ロボティア編集部2018年4月27日(金曜日)

財務省・福田淳一事務次官のセクハラ疑惑や、ジャニーズが誇る人気アイドルグループ・TOKIOの山口達也メンバーが起こした強制わいせつ事件など、性に関するスキャンダルが日本社会を賑わせている。

そんな最中、世界各国ではテクノロジーを使った新たな性犯罪への懸念が高まっている。そのテクロジーとは、人工知能(AI)を使ったイメージ生成だ。ディープラーニングなどのAI技術は、画像解析分野で大きな成果を発揮してきたが、昨今では特定の人物と卑猥な写真を合成する最新技術としても進歩し始めている。分かりやすく言えば、本物と見分けのつかない「アイコラ写真」を生成できてしまうツールになるという訳だ。また画像はおろか、動画さえも生成できてしまう「ディープフェイク」なる技術が登場し、セレブや有名人を対象に被害が拡大している状況がある。

【関連記事】>>>映像の人物を“入れ替える”「CycleGAN」公開…動画編集に革命!?
【関連記事】>>> AI利用した「フェイク映像」実験の恐怖!...音声を学習し口の動きを生成

隣国・韓国ではすでに、AIによる「画像生成」や「ディープフェイク」が、プライバシー問題、また性犯罪と関連した領域で議論され始めている。直近では、韓国の大統領官邸・青瓦台の「国民請願掲示板」に、ディープフェイクなど新手のテクノロジー犯罪を防いでくれという要求が殺到しているというニュースが大きな話題となった。昨年12月30日に締め切られた、「一般人を侮辱する写真流布を処罰してほしい」また、「デジタル性犯罪規定の強化」というタイトルの請願には、それぞれ12万3288人、1万763人が署名した。

「ディープフェイクの制作と配布を防いでほしい」という請願も相次いでいる。請願文を書いた人物は、「あらゆる売春、裸(写真)の合成依頼、ディープフェイクデータが行き来する海外に拠点を構えたSNSを捜査するため、より多くの警察人員と予算を投入してほしい」「ディープフェイクは、それ自体が厳然とした性犯罪」などと訴えている。

韓国の国会では、合成写真やフェイク動画を制作した人物を「性的暴行処罰法」なる国内法の適用・処罰対象とするという内容の法改正案が発議されている。自由韓国党のミン・ギョンウク議員は、今年2月に提出した改正案で「(わいせつ合成物は)被害者の性的羞恥心と人格権を侵害するため、性暴行法で処罰されることが妥当」と指摘した。

韓国の放送通信審議委員会も、性に関する違法撮影物、肖像権侵害情報だけを担当する「デジタル性犯罪対策チーム」の新設を進めている。デジタル性犯罪情報を先回りしてブロックするための技術も、並行して開発していく計画である。

一方、警察組織はサイバー性犯罪捜査チームを発足し捜査力を増強しているものの、その捜査には限界があると吐露している。韓国メディアの取材に答えた警察関係者は、「合成ポルノが流通される場所は主に海外サイトであり、国際協調が必要(中略)児童ポルノや個人が撮影したリベンジポルノとは異なり、一般的なポルノは合法的な国が多く国際協調が容易ではない」と述べている。

また、合成物自体が真偽を選別できないほど精巧に作成されており、被害者の積極的な申告がなければ取り締まりが難しいという点も課題として挙げられている。韓国警察は「有名芸能人ではない一般の方々を警察がモニタリングしたり、合成の有無を判断することは容易ではない(中略)新たな被害を防ぐためにも、被害者が認知した後すぐに警察に通報することが重要」と強調している。

数年前から、元恋人への怨恨などを理由にネット上にわいせつな写真をばらまく「リベンジポルノ」が各国で社会的な問題として浮上しているが、今後は人工知能を使った写真合成や、フェイク動画の存在がプライバシー侵害や性犯罪のツールとして利用されていく可能性が非常に高い。画像や動画を生成する人工知能はビジネス的に大きな潜在力を秘めているものの、悪用されれば性犯罪だけではなく、政治工作や大衆扇動などにも利用される危険性すら秘めているため、関連法の整理やルール作りが急務となっていきそうだ。

参照サイト