AIフェイク動画「ディープフェイクス」の氾濫にブロックチェーンで対抗する
![](https://newsatcl-pctr.c.yimg.jp/t/iwiz-yn/rpr/kazuhirotaira/00135745/top_image.jpeg?exp=10800)
AIによるフェイク動画「ディープフェイクス」やフェイク画像の氾濫に、ブロックチェーンで対抗する――。
米ニューヨーク・タイムズは、高度化するフェイクニュースへの対策として、仮想通貨の基盤テクノロジー「ブロックチェーン」を活用するプロジェクト「ニュース・プロベナンス・プロジェクト」を立ち上げた。
ディープフェイクスなどのフェイクコンテンツは、メディアが配信した動画や画像が改ざんされ、メディアブランドが拡散に悪用されるケースも多い。
タイムズは、コンテンツに配信元、作成日時といった「メタデータ」を加え、ブロックチェーンを活用することで、改ざんの有無などが、配信プラットフォームとなる様々なソーシャルメディアと共有できる仕組みを目指す。
タイムズはフェイクニュース対策として、ファクトチェックの取り組みにも力を入れている。
ファクトチェックはフェイクニュース拡散への事後対応なのに対し、今回の新プロジェクトは、悪用される可能性のある画像や動画に、あらかじめ対策を”埋め込む”戦略だ。
●ニュースの出所を示す
ニューヨーク・タイムズの研究開発チームが取り組む新プロジェクト「ニュース・プロベナンス(出所)・プロジェクト」について、同チームのサーシャ・コーレン氏が23日付で、その概要をまとめている。
コーレン氏は、ニューヨーク・タイムズ出身で、ガーディアンでもモバイル施策を担当したメディアコンサルタントだ。
それによると、タイムズの危機感の背景の一つは、AIを使った高度なフェイク動画「ディープフェイクス」の氾濫だ。
改ざんされ、文脈から切り離されたテキストや画像が、事実として流通してしまう。これらの虚偽の言説に加えて、今では改ざんされた多くの動画が台頭してきている。この危機に報道機関はどう対処すべきか?
そしてピュー・リサーチ・センターが6月に公表した調査では、米国の解決すべき重要課題として50%の回答者がフェイクニュースを挙げており、その割合は暴力犯罪(49%)や気候変動(46%)、人種差別(40%)を上回っている。
そして、フェイクニュース問題の解決に、最も責任があるとされたのはニュースメディア(53%)だった。
そこでタイムズが対策として検討したのが、動画や画像のメタデータと、ブロックチェーンだ。
仮想通貨の流通では、データ改ざんなどの不正行為を防ぎ、検出する仕組みが不可欠だ。その役割を担っているのが暗号技術を使ったデータ流通の基盤、ブロックチェーンだ。
動画や画像に、作成者のクレジットや作成日時などのメタデータを付加。さらに、リナックス・ファウンデーションが運営するオープンソースのブロックチェーン基盤「ハイパーレッジャー・ファブリック」を使って、動画や画像の流通、編集の履歴を追跡できるようにし、コンテンツの出所を明らかにする、という試みだ
コンテンツの流通に、メタデータと編集履歴が付随することで、流通の舞台となるソーシャルメディア側でも、そのデータを共有することができ、フェイクコンテンツ判定の手立てとなり、ユーザーの判断材料にもなる。
ブロックチェーン上で、写真などの配信を試みることで、理論上は、その写真の配信元がどこか、それが配信後に編集をされているかどうかという、判断の手掛かりをユーザーに提供できることになる。
新プロジェクトは現在、調査段階で、年内には調査内容を公開する予定。
実装には、ブロックチェーンの導入支援などを手がける「IBMガレージ」の協力を得るという。
実装されるようになれば、そのテクノロジーはオープンに他のメディアとも共有していくという。
●ディープフェイクスにメディアが動く
ディープフェイクスなどのフェイク動画やフェイク画像の対策は、他のメディアも取り組みを始めている。
ワシントン・ポストは6月、「百聞は一見にしかず、ではない――ファクトチェッカーのためのフェイク動画ガイド」と題した特集ページを公開した。
ポストは、ディープフェイクスなどのフェイク動画を、「文脈からの逸脱」「虚偽の編集」「悪意ある変換」の3類型6タイプに分類。オリジナルとフェイクを対比し、フェイク動画作成の手法を明らかにしている。
例えば、最近話題になった米下院議長のナンシー・ペロシ氏のフェイク動画「酩酊スピーチ」は、この類型の「悪意ある変換」の中で「不正加工」というタイプに分類されている。
また、フェイスブックCEO、マーク・ザッカーバーグ氏のスピーチをAIを使って改変したフェイク動画は、同じ類型の「改ざん」に分類されている。
ロイター通信も、自作のディープフェイクス動画を公開。その見分け方のノウハウを社内で共有しているという。
また、ガーディアンは、古い記事や画像が再利用をされるタイミングによって、当初の文脈から外れ、結果的にフェイクニュースとなる問題の防止策として、コンテンツの配信時期を黄色で強調。さらにソーシャルメディアに表示されるサムネイル画像にも、配信年を大きく表示する運用を導入している。
●ディープフェイクスの見分け方
ニューヨーク州立大学オルバニー校のルー・シウェイ(呂思偉)教授らの研究によって、ディープフェイクスには、いくつかの弱点があることがわかっている。
まずは人間を撮影したリアルな動画であれば、1分間に17回程度はあるはずのまばたきだ。
ディープフェイクスでは、これがうまく合成できていないか、不自然な形で合成されていたりする。
このまばたきの不自然さをAIをつかって検知するというシステムが、すでに開発されている。
※参照:AIによる”フェイクポルノ”は選挙に影響を及ぼすか?(06/30/2018)
さらに、ディープフェイクスが動画を合成する際に、立体的な整合性を取ることも、現時点では苦手だという。
例えば、リアルな動画なら一致するはずの顔の向きと鼻の頭の向きが、ずれてしまうのだという。
※参照:「ディープフェイクス」の弱点をAIが見破り、そしてフェイクAI「ディープヌード」が新たな騒動を呼ぶ(06/27/2019)
●報道局へのヒント
ただ、AIを使った検出以外にも、様々なチェックの方法やポイントがある。
ディープフェイクスの氾濫を受け、ウォールストリート・ジャーナルは2018年9月、報道局内に21人からなる対策委員会を立ち上げ、判定基準の洗い出し作業をしている。
そして、ニュースメディアの編集作業の観点から、ディープフェイクスを見分ける手順とポイントをまとめている。
まず第一の手法は、ジャーナリズムの基本中の基本。「本人に当たれ」だ。
疑わしい動画が投稿されていれば、本人に連絡を取り、話を聞く。その結果をもとに、信憑性を判断する。
投稿者がわからなくても、判断の手がかりとして、動画のメタデータをチェックする、という手立てもある。
画像、動画の検証用ツールとして知られる「InVID」などを使うと、撮影日時などのメタデータの検証も可能だ。
ただ、フェイスブックやツイッターなどのソーシャルメディアに投稿された動画などの場合、このメタデータは削除されてしまい、確認することはできない。
そこで動画の画像を画像検索サービスの「ティンアイ」「グーグル画像検索」などにかけ、古いバージョンを探し出して比較する、という手法も使える。
前述の「InVID」では、動画を切り出して、グーグルやティンアイなど複数の画像検索にかけることもできる。
このほか、ディープフェイクス動画も加工レベルがまちまちのため、注意してみれば、不自然な点がすぐ判明するケースも少なくない。
●テクノロジーと常識
AIなどのテクノロジーと、ジャーナリズムに蓄積されてきた事実確認のノウハウ、そしてソーシャルメディアのユーザーの常識的な判断。
それらが徐々に向上し、連携することで、排除できるディープフェイクスは少なくないはずだ。
(※2019年7月25日付「新聞紙学的」より加筆・修正のうえ転載)