96%はフェイクポルノ、膨張する「ディープフェイクス」の本当の危険性
ネット上に拡散する「ディープフェイクス」は前年比で2倍近くに膨らみ、その96%はハリウッド女優などの画像を流用したフェイクポルノ――。
AIを使ったフェイク動画「ディープフェイクス」の現状についての報告書を、オランダ・アムステルダムのベンチャー「ディープトレース」がまとめている。
米下院議長、ナンシー・ペロシ氏の「酩酊動画」などが注目を集め、2020年の米大統領選を前に連邦議会も対策に乗り出している「ディープフェイクス」。
だが報告書によれば、その大半は女性を標的としたポルノで、作成ツールがオープンソースで共有されているほか、作成請負のサービスも広がっており、コモディティ化(日用品化)が進む。
だがそればかりでなく、巨額詐欺事件が発生するなど、セキュリティ上の脅威としても影を落としている。
そして「ディープフェイクス」の本当の危険性は、“リアル”の定義と、情報の信頼を揺るがすことにある、との指摘も出ている。
●膨張する「ディープフェイクス」
ディープトレースが10月7日に公表した報告書「ディープフェイクスの現状 情勢、脅威、そしてインパクト」によると、同社がネット上で確認した「ディープフェイクス」の動画は1万4,678件。2018年12月時点の7,964件に比べて、84%増と急速な伸びを示している。
その内訳をみると、96%はハリウッド女優などの顔をはめ込んだポルノ動画。ポルノ以外の動画はわずか4%だった。
また、「ディープフェイクス」のポルノ動画専門のトップ4サイトにおける、動画視聴回数は1億3,400万回に上っていた。
報告書では、「ディープフェイクス」動画専門のトップ5サイトと、ユーチューブの「ディープフェイクス」関連の14チャンネルの内訳についても分析している。
動画の被写体は、ポルノ専門サイトでは女性が100%、ユーチューブチャンネルでは逆に男性が61%を占めた。
また、被写体の職業は、ポルノ専門サイトでは99%がエンターテインメント業界、1%がニュース・メディア業界。ユーチューブチャンネルではエンターテインメント業界は81%、政治家が12%、ニュース・メディア業界が5%だった。
「ディープフェイクス」は、その問題が浮上した当初から、ポルノ動画にハリウッド女優らの顔画像をはめ込むフェイクポルノとして拡散。リベンジポルノとしても波及するなど、女性に対する人権侵害として注目を集め、その後、政治的な影響も懸念されるようになっていった。
※参照:AI対AIの行方:AIで氾濫させるフェイクポルノは、AIで排除できるのか(02/24/2018 新聞紙学的)
報告書の調査結果からは、「ディープフェイクス」の大半が、依然として女性に対する人権侵害の問題であることがわかる。
●広がるツールとサービス
「ディープフェイクス」は2018年初頭に作成専用ツールが公開され、一気に拡散の勢いが加速される。
これに対し、排除の動きも強まっているが、その一方でネット上の専用ツール開発コミュニティは20に上り、このうち、メンバー数を公表している13のコミュニティだけでも、その数は9万5,791人に上るという。
ツール開発の基盤となっているのが、オープンソースのコード共有プラットフォーム「ギットハブ」。「ディープフェイクス」ツールの作成プロジェクトの一つは、人気度を示す指標「スター」数で2万を超え、人気プロジェクトとして存在感を示している、という。
「ディープフェイクス」のツールは、高性能GPUが必要であるなど、一般ユーザーにはハードルがある。
だが、ネット上では250枚ほどの写真をアップロードすると、2日程度で「ディープフェイクス」を作成するオンラインサービスもあり、1本あたり2.99ドル(約300円)ほどの低価格だという。
また、個人で「ディープフェイクス」作成を請け負うサービスもあり、特注の顔画像交換(30ドル)から50語あたり10ドルの「声のディープフェイクス」作成まで、その内容も幅広い。
●手軽な「ディープフェイクス」
「ディープトレース」の報告書では取り上げていないが、すでに極めて手軽な「ディープフェイクス」ツールも登場している。
中国の顔画像交換アプリ「ザオ」だ。
ブルームバーグなどによると、このiPhone用の無料アプリは、ユーザーが顔写真をアップロードすると、即座に映画やテレビ番組の動画の有名なシーンで、登場人物の顔と画像を入れ替えることができる、という。
8月末に公開されるとすぐにアプリのランキングトップに躍り出たが、作成動画の著作権がすべて運営元に帰属することになっていたため、プライバシー上の問題が浮上。
利用規約を変更し、運営元による作成動画の利用を「サービス向上」などの目的に制限した、という。
このような手軽な「ディープフェイクス」が登場する一方で、従来ある基本的な編集ツールによって動画を改ざんする「シャローフェイクス」の問題も指摘されている。
●「シャローフェイクス」のインパクト
ペロシ氏の「泥酔動画」は、同氏のスピーチ動画の速度を75%ほど落とし、声のトーンを編集しただけのものだった。
だが、この動画が2019年5月23日にソーシャルメディア上で公開されると瞬く間に拡散。
ツイッターでは、トランプ大統領の公式アカウントがリツイートしたこともあり、翌月末までで630万回視聴されている。
また2018年11月8日、ホワイトハウスでのトランプ大統領の記者会見の席上、質問を続けようとするCNNの担当記者、ジム・アコスタ氏のマイクを、インターンが取り上げようとした場面があった。
この場面の動画をコマ落としすることで、アコスタ氏がインターンの腕を強く振り払っているように見せた改ざん動画が拡散。
これを当時のホワイトハウス広報官、サラ・サンダース氏もツイッターの公式アカウントで共有。一時は、「女性に手を上げた」としてホワイトハウスがアコスタ氏のホワイトハウス入館証をはく奪する事態となった。
このような、ローテクな動画改ざんでも、政治的な場面においては、十分なインパクトを持つことが示された事例だ。
●セキュリティ上の問題
「ディープフェイクス」を巡っては、すでに多額の詐欺被害も出ている。
2019年3月、英国のエネルギー会社の最高経営責任者(CEO)が、ドイツの親会社のCEOを騙ったAIによる音声のなりすまし、いわば「声のディープフェイクス」の電話による指示で、ハンガリーの企業の口座に22万ユーロ(約2,600万円)を送金してしまった事件だ。
※参照:2,600万円詐取、AI使った“声のディープフェイクス”が仕掛けるオレオレ詐欺(09/05/2019 新聞紙学的)
AIを使った音声のなりすましによる犯罪の被害事例はこれまで明らかになってこなかったが、表面化していないだけで、すでに類似の事件は複数確認されているという。
また、AP通信の2019年6月の報道によると、シンクタンク「戦略国際問題研究所(CSIS)」の研究員を名乗る「ケイティー・ジョーンズ」というリンクトインのアカウントが、米政府中枢の関係者ら50人以上とネットワークをつくっていたが、そのプロフィール画像はAIによって生成されたもので、実在しない人物だった、という。
これは外国政府によるスパイ活動の一環、と見られている。
●「ディープフェイクスかもしれない」という疑念
「ディープフェイクス」の本当の問題点は、フェイク動画そのものよりも、むしろ別の点にある―。
動画を活用し、人権侵害の告発などに取り組むNPO「ウィットネス」のプログラムディレクター、サム・グレゴリー氏は、報告書の中でそう述べている。
これは権力者に新たな武器を与えることになる:つまり権力を持たない人々が、汚職や人権侵害を明らかにする証拠として使おうとしているもの(動画)について、“これはディープフェイクスだ”ということができてしまうのだ。
このような事態は、すでに起きている。
その一例が、トランプ氏がNBCの番組「アクセス・ハリウッド」の収録現場で「スターならやらせてくれる。何でもできる」などと卑猥な発言をしていたテープが、2016年の大統領選の期間中に明らかになった問題だ。
トランプ氏は当初、このテープが本物であることを認めていた。だがニューヨーク・タイムズによれば、大統領当選後、上院議員や側近たちに、テープは本物ではない、と繰り返すようになっている、という。
※参照:「ディープフェイクス」に米議会動く、ハードルはテクノロジー加速と政治分断(06/22/2019 新聞紙学的)
メリーランド大学教授、ダニエル・シトロン氏は、2019年6月に下院情報特別委員会が開いた公聴会で、「ディープフェイクス」を放置することにより、リアルの動画に対する信頼性も揺らぐことになる、と指摘している。
そしてその結果、リアルな動画を証拠として疑惑を指摘された人物が、「その動画はフェイクニュースだ」と否定することができてしまう「嘘つきの分け前」と呼ぶ状況が起きている、と述べていた。
トランプ大統領は就任前から、自身に批判的なメディアに対して「フェイクニュース」との攻撃を繰り返している。
これが、「ディープフェイクス」との攻撃に置き換わる可能性を指摘しているわけだ。
2019年1月に中央アフリカのガボンで起きたクーデター未遂事件の発端も、「ディープフェイクス」疑惑だったと指摘されている。
米マザージョーンズによると、ガボン政府は同月、病気療養で公に姿を見せていなかったボンゴ大統領の動画を公開した。
だがこの動画は、まばたきの回数が少ないなどとされ、ボンゴ大統領の反対派から「ディープフェイクス」だとみなされて、軍部のクーデター未遂のきっかけとなった、という。
●揺らぐ“リアル”
「ディープフェイクス」よりも現実へのインパクトが大きい、ローテクの「シャローフェイクス」。
そして、実際の「ディープフェイクス」のダメージよりも、より深刻なダメージが想定される、“リアル”の動画に対する「ディープフェイクス」攻撃。
“フェイク”と“リアル”の境界線は、ますます曖昧になっていく危険性をはらんでいる。
(※2019年10月23日付「新聞紙学的」より加筆・修正のうえ転載)