Yahoo!ニュース

AIフェイク動画「ディープフェイクス」の氾濫にブロックチェーンで対抗する

平和博桜美林大学教授 ジャーナリスト
筆者撮影(Instagram、YouTubeより)

AIによるフェイク動画「ディープフェイクス」やフェイク画像の氾濫に、ブロックチェーンで対抗する――。

米ニューヨーク・タイムズは、高度化するフェイクニュースへの対策として、仮想通貨の基盤テクノロジー「ブロックチェーン」を活用するプロジェクト「ニュース・プロベナンス・プロジェクト」を立ち上げた。

ディープフェイクスなどのフェイクコンテンツは、メディアが配信した動画や画像が改ざんされ、メディアブランドが拡散に悪用されるケースも多い。

タイムズは、コンテンツに配信元、作成日時といった「メタデータ」を加え、ブロックチェーンを活用することで、改ざんの有無などが、配信プラットフォームとなる様々なソーシャルメディアと共有できる仕組みを目指す。

タイムズはフェイクニュース対策として、ファクトチェックの取り組みにも力を入れている。

ファクトチェックはフェイクニュース拡散への事後対応なのに対し、今回の新プロジェクトは、悪用される可能性のある画像や動画に、あらかじめ対策を”埋め込む”戦略だ。

●ニュースの出所を示す

ニューヨーク・タイムズの研究開発チームが取り組む新プロジェクト「ニュース・プロベナンス(出所)・プロジェクト」について、同チームのサーシャ・コーレン氏が23日付で、その概要をまとめている。

コーレン氏は、ニューヨーク・タイムズ出身で、ガーディアンでもモバイル施策を担当したメディアコンサルタントだ。

それによると、タイムズの危機感の背景の一つは、AIを使った高度なフェイク動画「ディープフェイクス」の氾濫だ。

改ざんされ、文脈から切り離されたテキストや画像が、事実として流通してしまう。これらの虚偽の言説に加えて、今では改ざんされた多くの動画が台頭してきている。この危機に報道機関はどう対処すべきか?

そしてピュー・リサーチ・センターが6月に公表した調査では、米国の解決すべき重要課題として50%の回答者がフェイクニュースを挙げており、その割合は暴力犯罪(49%)や気候変動(46%)、人種差別(40%)を上回っている。

そして、フェイクニュース問題の解決に、最も責任があるとされたのはニュースメディア(53%)だった。

そこでタイムズが対策として検討したのが、動画や画像のメタデータと、ブロックチェーンだ。

仮想通貨の流通では、データ改ざんなどの不正行為を防ぎ、検出する仕組みが不可欠だ。その役割を担っているのが暗号技術を使ったデータ流通の基盤、ブロックチェーンだ。

動画や画像に、作成者のクレジットや作成日時などのメタデータを付加。さらに、リナックス・ファウンデーションが運営するオープンソースのブロックチェーン基盤「ハイパーレッジャー・ファブリック」を使って、動画や画像の流通、編集の履歴を追跡できるようにし、コンテンツの出所を明らかにする、という試みだ

コンテンツの流通に、メタデータと編集履歴が付随することで、流通の舞台となるソーシャルメディア側でも、そのデータを共有することができ、フェイクコンテンツ判定の手立てとなり、ユーザーの判断材料にもなる。

ブロックチェーン上で、写真などの配信を試みることで、理論上は、その写真の配信元がどこか、それが配信後に編集をされているかどうかという、判断の手掛かりをユーザーに提供できることになる。

新プロジェクトは現在、調査段階で、年内には調査内容を公開する予定。

実装には、ブロックチェーンの導入支援などを手がける「IBMガレージ」の協力を得るという。

実装されるようになれば、そのテクノロジーはオープンに他のメディアとも共有していくという。

●ディープフェイクスにメディアが動く

ディープフェイクスなどのフェイク動画やフェイク画像の対策は、他のメディアも取り組みを始めている。

ワシントン・ポストは6月、「百聞は一見にしかず、ではない――ファクトチェッカーのためのフェイク動画ガイド」と題した特集ページを公開した。

ポストは、ディープフェイクスなどのフェイク動画を、「文脈からの逸脱」「虚偽の編集」「悪意ある変換」の3類型6タイプに分類。オリジナルとフェイクを対比し、フェイク動画作成の手法を明らかにしている。

例えば、最近話題になった米下院議長のナンシー・ペロシ氏のフェイク動画「酩酊スピーチ」は、この類型の「悪意ある変換」の中で「不正加工」というタイプに分類されている。

また、フェイスブックCEO、マーク・ザッカーバーグ氏のスピーチをAIを使って改変したフェイク動画は、同じ類型の「改ざん」に分類されている。

ロイター通信も、自作のディープフェイクス動画を公開。その見分け方のノウハウを社内で共有しているという。

また、ガーディアンは、古い記事や画像が再利用をされるタイミングによって、当初の文脈から外れ、結果的にフェイクニュースとなる問題の防止策として、コンテンツの配信時期を黄色で強調。さらにソーシャルメディアに表示されるサムネイル画像にも、配信年を大きく表示する運用を導入している。

●ディープフェイクスの見分け方

ニューヨーク州立大学オルバニー校のルー・シウェイ(呂思偉)教授らの研究によって、ディープフェイクスには、いくつかの弱点があることがわかっている。

まずは人間を撮影したリアルな動画であれば、1分間に17回程度はあるはずのまばたきだ。

ディープフェイクスでは、これがうまく合成できていないか、不自然な形で合成されていたりする。

このまばたきの不自然さをAIをつかって検知するというシステムが、すでに開発されている。

※参照:AIによる”フェイクポルノ”は選挙に影響を及ぼすか?(06/30/2018

さらに、ディープフェイクスが動画を合成する際に、立体的な整合性を取ることも、現時点では苦手だという。

例えば、リアルな動画なら一致するはずの顔の向きと鼻の頭の向きが、ずれてしまうのだという。

※参照:「ディープフェイクス」の弱点をAIが見破り、そしてフェイクAI「ディープヌード」が新たな騒動を呼ぶ(06/27/2019

●報道局へのヒント

ただ、AIを使った検出以外にも、様々なチェックの方法やポイントがある。

ディープフェイクスの氾濫を受け、ウォールストリート・ジャーナルは2018年9月、報道局内に21人からなる対策委員会を立ち上げ、判定基準の洗い出し作業をしている。

そして、ニュースメディアの編集作業の観点から、ディープフェイクスを見分ける手順とポイントをまとめている。

まず第一の手法は、ジャーナリズムの基本中の基本。「本人に当たれ」だ。

疑わしい動画が投稿されていれば、本人に連絡を取り、話を聞く。その結果をもとに、信憑性を判断する。

投稿者がわからなくても、判断の手がかりとして、動画のメタデータをチェックする、という手立てもある。

画像、動画の検証用ツールとして知られる「InVID」などを使うと、撮影日時などのメタデータの検証も可能だ。

ただ、フェイスブックやツイッターなどのソーシャルメディアに投稿された動画などの場合、このメタデータは削除されてしまい、確認することはできない。

そこで動画の画像を画像検索サービスの「ティンアイ」「グーグル画像検索」などにかけ、古いバージョンを探し出して比較する、という手法も使える。

前述の「InVID」では、動画を切り出して、グーグルやティンアイなど複数の画像検索にかけることもできる。

このほか、ディープフェイクス動画も加工レベルがまちまちのため、注意してみれば、不自然な点がすぐ判明するケースも少なくない。

●テクノロジーと常識

AIなどのテクノロジーと、ジャーナリズムに蓄積されてきた事実確認のノウハウ、そしてソーシャルメディアのユーザーの常識的な判断。

それらが徐々に向上し、連携することで、排除できるディープフェイクスは少なくないはずだ。

(※2019年7月25日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事