Deepfakesで68万人をヌードに変換、ネットで共有
ディープフェイクスで、68万人を超す女性のヌード写真が量産されている――。
ディープフェイクスの実態調査を続けてきたオランダの企業「センシティ」が20日、その調査結果を公表した。
服を着ている女性の写真を、自動的にヌードに変換する。そんなディープフェイクスが、暗号化によって秘匿性が高いとされるメッセージアプリの「テレグラム」を舞台に、急速に広がっており、未成年の写真も含まれていた、と指摘する。
元になったプログラムは2019年に登場したが、批判が集中。公開から5日間で閉鎖されていた。
それが今年、再び勢いを増しているという。
ディープフェイクスはAIを使い、ポルノ動画を有名なハリウッド女優らの顔に差し替えるテクノロジーとして知られてきた。日本でも芸能人の被害が確認され、警視庁などが摘発を行った。
その被害は、世界的に増加を続けている。
それに加えて、ヌード写真という新たな被害が広がっている。ターゲットとなる被害者は、いずれも女性だ。
●10万人の被害者を確認
オランダのディープフェイクス調査会社「センシティ」が20日に公表した報告書によれば、ヌード写真が拡散しているのは、ドイツに拠点を置き、暗号化により秘匿性が高いことで知られるメッセージアプリ「テレグラム」。
「テレグラム」上にサービス提供者が開設したチャンネルで、ボットを使って着衣の女性の写真を受け付け、ディープフェイクスを使って着衣部分を自動変換し、ヌード写真として出力するという。
無料での利用では変換後のヌード写真に透かしが入り、それを除去するには100ルーブル(約140円)からの課金が必要だという。
「センシティ」が7月末までに確認しただけで、10万4,852人の女性の、ディープフェイクスによるヌード写真が公開チャンネルで共有されていた。また同月までの3カ月間で、その数は3倍ほどに増加していた。
さらに報告書の公表直前、ネット上でこのボットの広告ページが明らかになり、その中でヌード変換された女性の数は68万人を超えることが明らかにされていた、という。
「テレグラム」には関連する7つのチャンネルがあり、ユーザー(メンバー)はのべ10万3,585人。
その中心的なチャンネルで2019年7月にユーザーに対して行われたアンケートでは、7割はロシアや周辺国からのユーザーだった。
暗号化による秘匿性から、ロシアなどでは「テレグラム」の使用が規制されていたが、VPNなどを通じた利用が後を絶たず、2020年6月には、それが解除された、と報じられている。
さらにメンバーのアンケートでは、「ヌード化に興味がある対象は誰か」との設問もあり、「顔見知りの女性」が63%。次いで「スター、セレブ、女優」などが16%。
リベンジポルノにつながりかねない、知人女性をターゲットにしたヌード化が、利用目的の大半を占めていた。
●2019年に5日間で閉鎖
ディープフェイクスを使った女性のヌード写真の自動生成ソフトは、2019年6月に「ディープヌード」という名称でネット上に登場している。
「ディープヌード」は女性の画像のみに対応。ディープフェイクスと同様のテクノロジー(敵対的生成ネットワーク<GAN>)を使って、着衣の女性の画像を自動でヌード化していた。
今回のボットと同じく無料版では変換後の画像にウォーターマークが入るが、50ドルの有料版ではそれを消すことができた。
だが報道を受けて「ディープヌード」にアクセスと批判が集中。50万人のアクセス、9万5,000のダウンロードを経て、公開から5日後にサービスを閉鎖していた。
※参照:「ディープフェイクス」の弱点をAIが見破り、そしてフェイクAI「ディープヌード」が新たな騒動を呼ぶ(06/27/2019 新聞紙学的)
「センシティ」の調査によると、「ディープヌード」のソフトはサービス閉鎖の翌月に3万ドルで売却され、その後、オープンソースとして開発が続けられていたようだ。
●330%増のディープフェイクス動画
「センシティ」はディープフェイクス動画拡散の動向調査も続けてきた。
2020年6月時点のデータでは、確認されたディープフェイクスによるポルノ動画は4万9,081件。
同社は2019年7月時点で、その数を1万4,678件としており、1年で330%の増加。ターゲットを国別でみると、米国が50%を占めていた。
2019年の調査ではその96%がポルノ動画だった。
エストニアのディープフェイクス調査会社「センチネル」も2020年10月、その現状についての報告書を公表している。
それによると、2020年6月段階のディープフェイクス動画の件数は14万5,277件。このうちポルノ動画は2万7,271件(19%)で、残る11万7,956件(81%)は非ポルノ動画だという。
顔交換機能がついた娯楽用のスマートフォンのアプリなどが広がり、全体の件数を押し上げている、と見る。
「センチネル」は、年間のディープフェイクス動画の件数は1億件を超えると予測する。
●ターゲットは女性
ディープフェイクスをめぐり、国内では10月、警視庁、千葉県警、京都府警が、アダルトビデオの出演者の顔を芸能人とすり替えた動画をネット上にアップしたとして、大学生、システムエンジニア、無職男性を名誉棄損と著作権法違反の容疑で逮捕した。
東京地検は大学生とシステムエンジニアを10月21日に起訴。京都簡裁は22日、無職男性に罰金100万円の略式命令をしている。
警視庁が確認しただけで、女性芸能人約200人分、3500本以上のディープフェイクスがネット上で公開されていた、という。
ハリウッドの特殊効果などで使われてきたテクノロジーが、AIの進化によって急速にハードルが下がってきたのがディープフェイクスだ。
その悪用に対して、検知のテクノロジーが進化する一方、作成テクノロジーも急速に進化するいたちごっこの様相でもある。
※参照:96%はポルノ、膨張する「ディープフェイクス」の本当の危険性(10/23/2019 新聞紙学的)
※参照:AI対AIの行方:AIで氾濫させるフェイクポルノは、AIで排除できるのか(02/24/2018 新聞紙学的)
一方で、ディープフェイクスと同様のテクノロジーによる、AI化した特殊詐欺の巨額の被害もすでに明らかになっている。
※参照:2,600万円詐取、AI使った“声のディープフェイクス”が仕掛けるオレオレ詐欺(09/05/2019 新聞紙学的)
その中で、特に大統領選を迎えた米国ではディープフェイクスが政治課題としても浮上していた。
※参照:「ディープフェイクス」に米議会動く、ハードルはテクノロジー加速と政治分断(06/22/2019 新聞紙学的)
芸能人をターゲットとした被害が明らかになった日本もまた、加速するディープフェイクスの動向を注視していく必要がある。
(※2020年10月23日付「新聞紙学的」より加筆・修正のうえ転載)