写真を撮られただけなのに。ディープフェイク技術で、簡単にヌード写真を生成される怖さ
年の瀬が近づき、忘年会やクリスマスパーティといった楽しいイベントに参加する機会が増える時期。友人との楽しいイベントで写真を撮り、SNSにアップロードする。この自然な行為が、トラブルに巻き込まれるきっかけとなるかもしれない。
■偽動画や偽画像を作成するディープフェイク
ディープフェイク(deepfake)とは「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語であり、ある人物の顔を他の人物とすり替えて、偽の画像や動画を作り出すことを可能にする技術。この技術を使えば、アダルト動画の女優の顔を他の人物、例えば芸能人に入れ替えて、あたかもその芸能人がアダルト動画に出演しているかのような、「偽の動画」を作成することが可能になる。
2017年秋に"Deepfakes" というハンドルネームのRedditユーザーが、エマ・ワトソンらの有名女優を利用した「偽動画」を投稿し話題を集めるようになった。今では、ディープフェイクを応用したアプリケーションがインターネットに公開されているため、これらのアプリケーションを利用すれば、誰でも偽動画や、偽写真を作ることが出来るようになっている。
■何気ないピース写真がヌード画像に
これは、筆者の友人がSNSに投稿していたあるパーティでの写真。友人二人と並んでカメラに向かって笑顔を向けている。このどこにでもあるような光景が、ディープフェイクのアプリで処理すると、ほんの数分で全裸でピースをしている写真へと変換されるのだ。ヤフーニュースへの掲載の都合上、ボカシを入れているが実際の写真にはぼかしは入っておらず、自然なヌード写真が完成している。
■インターネットに写真を投稿するリスク
ほんの少し前「瞳に写った風景から、自宅を特定したストーカー」が話題になった。技術の進化は、それを悪用しようとする人達によって、思いもよらぬ災いをもたらすことがある。ディープフェイクは今後悪用されるリスクの高い技術として、関心が高まっている。実際に、ディープフェイクを利用した動画コンテンツは既に1万4千件以上の存在が確認されているし、アメリカ大統領選挙を控えてディープフェイクを利用したフェイクニュースが登場するのでは?と危惧されている。しかし、ディープフェイクに関する議論の大半は 政治目的での悪用や、有名人の偽アダルト動画を題材にしていることが多く、「一般人には無縁」と捉えている人も多いのではないだろうか。
筆者は近い将来、ディープフェイクを利用した一般人を対象としたトラブルや犯罪が発生するのではないか?と懸念している。
・ディープフェイクで生成された写真の削除代金を要求するフィッシングメール
ディープフェイクを利用すれば、前述したようにSNS上に投稿された写真から簡単にヌード画像を作成することが出来る。例えば偽のヌード写真を両親に送りつけ、写真を削除するかわりに仮想通貨を要求するような犯罪が登場するかもしれない。
・ディープフェイクを利用したリベンジポルノ
復讐したい相手の写真を、まるで公衆の場で全裸になったとして、匿名掲示板等に投稿されるかもしれない。
現在の所、こういった悪用例は発生していないと推測されるが、今後発生する可能性は十分に有り得ると筆者は推測している。
■ディープフェイクから身を守るには?
現時点のディープフェイク技術だけに限った話で言えば「ヌードを生成しづらくする」ことは可能だ。機械学習によって人の顔や、胸の位置などを推測し、ヌードへ変換するため、顔や胸の位置を分かりづらくすることで、対策することが出来る。以下の点に注意して写真を撮影することで、ヌード写真の生成が難しくなる。
- 真正面からの写真は避ける(画像を変換しずらくする)
- 胸元の開いた服で写真を撮らない(胸の位置が推測されるのを防ぐ)
但し、現時点でのディープフェイク技術はまだまだ発展途上であり、今後より進化することが推測される。機械学習の学習量が増えてくれば、何れ上記の対策も有効では無くなる時も訪れるだろう。残念ながら、ディープフェイクで生成されたコンテンツに対する有効な対策手段は確立されていない。
皆で過ごした楽しい時間の記念写真。将来ディープフェイクで悪用されないために、SNSへ写真を投稿する時は、公開範囲を限定しておくことを推奨する。