ポルノ動画の顔部分を有名人と取り替える「フェイクポルノ」――リベンジポルノにも利用される恐れ

フェイクポルノはあらゆる人々が被害を被る可能性があります(写真:アフロ)

 最近、ポルノ動画の顔部分だけを有名人のものと取り替える、「フェイクポルノ」と呼ばれる動画がネットに拡散され、問題となっています。一昔前にはヌード写真の顔だけを有名人のものと取り替えるアイコラ(アイドルコラージュ)と呼ばれものも流行りましたが、その大半はすぐに嘘が分かる程度のものでした。しかし近年は人工知能技術を利用することで、本物と見分けがつかないレベルのものが多く作成されています。

 フェイクポルノ拡散は、被害者を傷つけるだけでなく、閲覧者にフェイクポルノが本物であるとの誤った知識を植え付けることにもなります。そして恐ろしいことに、この技術はリベンジポルノにも利用される恐れがあります。フェイクポルノは今後社会問題化することも懸念されますので、以下詳しく問題についてみていきたいと思います。

一般人でもフェイクポルノが作成可能に

 問題はテクノロジー系ニュースサイト「マザーボード」などが2017年12月の段階で報じています。それによれば、アメリカの巨大掲示板サイト「レディット」に、「ディープフェイクス(deepfakes)」と名乗るユーザーがフェイクポルノ動画を投稿して話題となっていました(レディットは日本における5ちゃんねる(旧2ちゃんねる)のようなものだと思ってください)。

 フェイクポルノ作成には技術が必要ですが、近年はGoogleなどが誰でも使えるオープンソースという形で、人工知能のソフトウェア(機械学習ソフト)などを公開しています。知識があれば、こうしたソフトを利用してフェイクポルノを作成することができます。

 ディープフェイクスを名乗るユーザーは、このGoogleがオープンソースで公開しているテンソルフロー(TensorFlow)とよばれるソフトウェアを利用していましたが、別のユーザーがディープフェイクスの動画を参考にして、レディットに誰でもフェイクポルノを作成できるアプリを投稿しました(アプリ名は伏せますが、リンク先の記事に掲載されています)。

 レディットにこのアプリが投稿されると、アプリを使ってフェイクポルノを作成する一般ユーザーが増え、一気にフェイクポルノ動画がネット上に拡散しました。特に世界的に有名なアダルトサイト「ポルノハブ(Pornhub)」等に投稿されると、多いものでは数百万アクセスを記録するものもあったとのことです

フェイクポルノがもたらす被害

 フェイクポルノの恐ろしい点は、何よりもまず被害者に大きな精神的ダメージを与えてしまうことにあります。有名人は自分がしてもいない嘘のポルノ動画を流され、それを信じるユーザも増えてしまうでしょう。さらに、一般人のフェイクポルノも簡単に作成できてしまう点も問題であり、そうしたフェイクポルノがリベンジポルノなどに利用される可能性もあります。実際マザーボードの記事では、知り合いのフェイクポルノを作成する動きが伝えられています。

 記事では、ある女性のFacebookやInstagramから得られた写真を利用してフェイクポルノを作成した人物がいることが報告されています。データ不足などによって動画のクオリティは高くないことが予想されますが、問題はそうした些細なものを越えています。たとえどんなに嘘とわかっていても、フェイクポルノがネットに拡散されてしまえば、被害者は大きな精神的ダメージを負うことになってしまいます。

 またフェイクポルノ作成が容易になればなるほど、リベンジポルノだけでなく、いじめ目的や恨みから、男女を問わずフェイクポルノを作成する人々が現れる可能性もあります。その意味でフェイクポルノは、あらゆる人々に降りかかり得る問題であり、自分がいつ被害者になってもおかしくないのです。すでに法的な解決に向けての議論が開始されていますが、リベンジポルノと同様、完全な解決は困難であることが予想されます。

 また自分でフェイクポルノを作成するだけでなく、ユーザーからの依頼でフェイクポルノを作成する人物も現れ始めています。つまり商売としてフェイクポルノ動画が取引される事態が一部で生じているのです。

人工知能を用いたフェイクポルノ対策

 問題の発生源になっているレディットやポルノハブでは当初、積極的に動画を削除していませんでした。その後世論の高まりを受けて削除対策がとられているものの、十分ではない状況です。人間による違反報告や人工知能を利用してもなかなか対処するのは難しいのですが、ITニュースサイト「ワイヤード」の記事によれば、GIF動画共有サイト「Gfycat」の取り組みとして、人工知能がフェイクポルノを発見する技術が紹介されているので、要旨を説明します。

 例えばある動画が投稿されると、動画内の顔などにタグが埋め込まれます。そして同じ動画がネットにないか人工知能が探してきて、そこに写っている人物の顔が同じかどうかを判定します。つまりネット上に元動画と顔データがあれば、それを人工知能が分析してフェイク動画かどうかの判定が可能となるのです。完全に防げるわけではありませんが、一定の割合でフェイク判定ができそうです。

 しかし、フェイクポルノの完成度は高くなる一方であり、現状の技術で人工知能がすべてに対処することは困難です。また人工知能が発見・削除する前にある程度拡散されてしまえば、「本当にあの人のポルノ動画があった」などと誤った知識を持ってしまうユーザが現れるでしょう。ネットでは削除されたり後に修正されるような記事があったとしても、最初に拡散された記事よりも拡散率が下がることが知られています。

 またネットにアップされていない、個人的に撮影されたポルノ動画などに一般人の顔を合成してしまえば、それがフェイクなのかどうか人工知能にはわかりません。こうしたことから、先に論じたようにリベンジポルノ目的のフェイクポルノが作成される恐れがあるのです。いずれにせよ、フェイクポルノの作成と取り締まりは、今後もいたちごっこが続いていくことが予想されます。

フェイクはポルノだけではない

 ここまでフェイクポルノの問題を指摘してきましたが、フェイクポルノ以外にも存在する「フェイク動画」の問題点を指摘したいと思います。すでに2016年の研究において、「Face2Face」と呼ばれるソフトウェアが開発されています。これはトランプ大統領のような有名人の顔とユーザの口の動きをリアルタイムで分析し、ユーザの口を動かすと動画内の人物の口も同じように動く、といったフェイク動画の作成を可能にするものでした。また2017年の夏には、オバマ元大統領の大量の音声データを分析し、オバマ氏の口元だけを音声に合わせて合成する技術も生まれています。

 このように、すでに口パク程度であればフェイク動画を作成することが可能になっています。ということは、誰かがプロパガンダ(政治的煽動)として、政治家が別の文脈で語った音声を別の動画に合成して語らせる、フェイク動画を作成する可能性も考えられます。また今後は語ってもいない音声を合成する「フェイク音声」が生まれ、すべてが嘘で塗り固められた、しかし限りなく本物に近いフェイク動画が生まれる可能性も考えられます。

 いずれにせよ、こうした動画を真に受ける人が増えれば、動画ひとつで深刻な政治対立を引き起こすことが可能です。何が本物で何が嘘なのか、ますますわからない時代が到来しつつあるのです。対処が難しい問題ですが、フェイクであることを常に念頭に置きながらネットに接する態度が必要だと言えるでしょう。

 最後にフェイクポルノを伝える日本語の記事として、朝日新聞記者の平和博氏のブログ記事があります。本記事執筆においても参考にしました。