科学のフェイクニュースは削除すべきでなく、削除はむしろ事態を悪化させる――。

英王立学会は1月19日にまとめた100ページにのぼるフェイクニュース対策の報告書で、そんな指摘をし、波紋を呼んでいる。

提言の柱は、合法だが有害な新型コロナなど科学分野のフェイクニュースについて、削除をするのではなく、アルゴリズムなどによる拡散抑制に取り組むべきだ、としている点だ。

報告書は、削除をすることで、科学的な議論を阻害し、フェイクニュースはさらに把握しづらい「ネットの地下にもぐってしまう」と指摘する。

だが、フェイクニュースが削除されずにいることで、拡散の危険性も残る。そしてフェイクニュースは、少数の発信元、少数の「インフルエンサー」であっても、爆発的な拡散をもたらす。

有害コンテンツ対策と「表現の自由」、そしてプラットフォームの責任を巡っては、数年来の議論が続く。

報告書を受けて、「それでも有害コンテンツは削除する必要はある」との反論も出ている。

●「削除は害をもたらす」

コンテンツの削除は、誤った情報を含むコンテンツ(およびそれに基づいて行動する人々)を、より対処しにくいインターネットの隅に追いやることで、メリットよりも害をもたらす危険性がある。

17世紀に起源を持つ最古の学会、英王立学会が1月19日に公開した報告書「ネット情報環境」(座長:フランク・ケリー・ケンブリッジ大学教授)は、そう指摘する。報告書が掲げるのは、「健全なネット情報環境の確立」だ。

社会に混乱や害を及ぼすフェイクニュース(誤情報・偽情報)は、放置すればソーシャルメディアなどを通じて急速に拡散し、多くの人々の目に触れ、悪影響を及ぼす。

米マサチューセッツ工科大学(MIT)の研究チームが2018年に発表した調査によれば、ツイッター上で「うそが広がる速度は6倍速く、より深く広く拡散する。

また、インペリアル・カレッジ・ロンドンなどの研究チームが2020年9月、英国と米国で実施した調査によれば、新型コロナワクチンに関するフェイクニュースを見たことで、英国で6.2ポイント、米国で6.4ポイント、ワクチン接種の意図の低下が見られた。

そんな中で報告書は、11項目に上るフェイクニュース対策の提言の2番目として、「政府とソーシャルメディアのプラットフォームは、ネット上の科学分野の誤情報対策において、コンテンツ削除に依存すべきではない」と述べている。

この(コンテンツ削除という)アプローチは、違法コンテンツ(例:ヘイトスピーチ、テロリストコンテンツ、児童への性的虐待の題材)に対しては効果的で不可欠かもしれない。だが、科学分野の誤情報に対しては、このアプローチの有効性を示す証拠はほとんどなく、むしろ誤情報の増幅に対処するアプローチの方がより効果的であると考えられる。

報告書がいう「削除による悪影響」とは何か。一つは科学分野におけるオープンな議論の阻害、そして誤情報コンテンツを信じる人々との分断の拡大、だという。

報告書がコンテンツ削除の代替策として挙げるのは、プラットフォームのシステム的対応により、フェイクニュース拡散の抑制策だ。

コンテンツの影響を管理するための緩和策を講じた上で、プラットフォームに引き続き掲載を認めることが、より優先すべき効果的なアプローチの可能性がある。緩和策の例としては、コンテンツの非収益化(誤情報コンテンツへの広告掲載禁止など);バイラルな拡散の防止による、メッセージサービスでの増幅の抑制、アルゴリズムによるレコメンド(おすすめ)システムの使用の規制;コンテンツにファクトチェックのラベルをつけること、などが挙げられる。

そのために、「ファクトチェックの支援」「研究者へのプラットフォームのデータ開放」などの提言を示し、さらに「多様なメディアが持続するための政府・プラットフォームの取り組み」「情報リテラシーの生涯学習のための政府の取り組み」などメディア環境全体にわたる提言も行っている。

●削除を巡る議論

有害コンテンツの削除については、長い議論が続いてきた。

フェイスブック(メタ)やツイッターは、違法コンテンツの削除に加えて、違法ではないが利用規約に違反する有害コンテンツについても、その削除やアカウント停止などの措置を取っている。

新型コロナのフェイクニュースに対して、フェイスブックは2,000万件を超す投稿と3,000を超すアカウントやページを削除。ツイッターも4万件を超すツイートを削除し、1,500件近いアカウントを停止したと公表している。

だが、コンテンツ削除の対応は紆余曲折の連続だった。その振れ幅を象徴するのが、フェイスブックのコンテンツ管理の軌跡だ。

同社は2016年、ベトナム戦争の空爆から裸で逃げ惑う少女を捉えたピュリツァー賞受賞の報道写真「ナパーム弾の少女」を“児童ポルノ”として削除し、行き過ぎた「検閲」だとして国際的な批判を浴びた。

※参照:フェイスブックがベトナム戦争の報道写真“ナパーム弾の少女”を次々削除…そして批判受け撤回(09/10/2016 新聞紙学的

その反動もあってか、CEOのマーク・ザッカーバーグ氏は2018年、「表現の自由」の旗印を掲げ、ナチスによるユダヤ人大量虐殺「ホロコースト」否定論者の投稿も「削除すべきでない」と発言。改めて大きな批判を浴びる。

それを受けた2020年には、フェイスブック自身が委嘱した人権に関する外部監査報告書で、有害コンテンツ削除に消極的な同社の姿勢が「ヘイトスピーチを増幅し、人権への脅威となる、有害で分断を招く言説を許容」した、との指摘まで受けている。

※参照:「ヘイト増幅を許した」Facebookはどこで間違えたのか?(07/12/2020 新聞紙学的

その一方で、2021年1月の米連邦議会乱入事件を受けて、プラットフォーム各社がトランプ前大統領のアカウントを相次いで停止させたことを巡り、政治権力を上回るパワーへの懸念も指摘されてきた。

※参照:Twitter、Facebookが大統領を黙らせ、ユーザーを不安にさせる理由(01/12/2021 新聞紙学的

急速に増大するプラットフォームの影響力と、その制御のバランスは、世界的な課題となっている。そんな中で、大手プラットフォームに照準を当て、重い責務を課す規制の動きが相次ぐ。

EUでは「デジタルサービス法」が1月20日に欧州議会を通過。英国でも、同様の「オンライン安全法案」が検討されている。

王立学会の報告書は、「オンライン安全法案」に関して、中小のプラットフォームがフェイクニュースの温床になるケースもあるとし、大手重視の規制の見直しを提言している。

王立学会の報告書のワーキンググループのメンバーには、グーグル副社長で「インターネットの父」として知られるビントン・サーフ氏も名を連ねている。

サーフ氏は、こんなコメントを出している。

多くのテクノロジープラットフォームはすでに、非収益化、レコメンデーション・アルゴリズムの使用規制、そしてファクトチェック・ラベルなど、議論を検閲せずに科学の誤情報の悪影響を減らすツールを使っている。

報告書が提言する、非収益化、ファクトチェック・ラベルの表示などの対策は、大手プラットフォームがすでに取り組んでいる内容だ。報告書には、大手プラットフォームの意向も、反映されているようだ。

●削除が必要とされるわけ

今回の王立学会の報告書に対しては、異論も出ている。

フェイクニュースは、ごく限られた「インフルエンサー」「スーパースプレッダー」が爆発的な拡散を可能にしており、新型コロナなどではその社会的な影響も深刻となる。

BBCのレイチェル・シュラー氏は、王立学会の報告書を受けた1月19日付の記事で、「コンテンツが極めて有害で、明らかに誤っており、広範囲に拡散しているならば、削除が最善の対策であるケースは依然としてある」との、米英のNPO「デジタルヘイト対策センター(CCDH)」の見解を紹介している。

同センターは2021年3月にまとめた報告書「ディスインフォメーション・ダズン(偽情報の12人)」の中で、ソーシャルメディアで拡散する反ワクチンのプロパガンダの65%は、わずか12の個人に行き着く、と指摘。極めて少数の発信源が、フェイクニュース拡散で大きな役割を果たしている、との実態を明らかにしたことで知られる。

さらに、シュラー氏は「コンテンツを削除することで、人々が有害な信念をさらに確信してしまう、という明らかな証拠は見当たらない」とも述べている。

またこの記事の中で、過激主義のウオッチを続ける英シンクタンク「戦略的ダイアローグ研究所(ISD)」は、フェイクニュース拡散にかかわる「インフルエンサー」が破格の影響力を持っているとし、「誤情報やミスリーディングなコンテンツを共有しているとして、ファクトチェッカーが何度もラベルをつけている多くのアカウントが、今もって健在である」と現状の対応の不十分さを指摘している。

英ラフバラー大学教授のアンドリュー・チャドウィック氏も、アカデミックメディア「カンバセーション」に掲載した「新型コロナの誤情報は健康へのリスク――IT企業はアルゴリズムの調整ではなく、有害コンテンツを削除する必要がある」と題する記事の中で、こんな疑問を投げかける。

誤情報の拡散を防ぐために、アルゴリズムはコンテンツの優先順位の上げ下げをどのようにしているのか、そもそもできているのか。それを評価する責任は、誰が、どこが負うのか。その評価はソーシャルメディア企業自身に任せるのか。そうでないとすると、この仕組みはどのように機能するのか。

そしてチャドウィック氏は、プラットフォームがアルゴリズムの内容を開示する可能性は低く、フェイクニュース対策の確かな手立ては、やはり削除だという。

有害な科学の誤情報を削除するようソーシャルメディア企業に要求する方が、アルゴリズム調整よりもよい解決策となるだろう。その利点は、明確さと説明責任にある。

●「エコーチェンバー」と「フィルターバブル」の検証

「エコーチェンバー」も「フィルターバブル」も、喧伝されているほどの悪影響はない――王立学会の報告書は、フェイクニュース問題の背景として、そんな指摘もしている。

今回の報告書では、文献レビューなど5本の関連論文も合わせて公開されている。

そのうちの1本が、報告書のワーキンググループのメンバーでもある、オックスフォード大学のロイター・ジャーナリズム研究所の所長、ラスムス・クライス・ニールセン教授らが、これまでに発表された「エコーチェンバー」と「フィルターバブル」に関する131本の論文を検証した文献レビューだ。

フェイクニュース氾濫の背景として指摘されてきたのは、同じような意見にばかり囲まれる「エコーチェンバー」や、アルゴリズムが閲覧できる情報を制限する「フィルターバブル」により、情報の偏りが生じる、との問題点だった。

だがこの文献レビューが指摘するのは、その影響が限定的、もしくは逆の効果がうかがえる、という点だ。

文献レビューを行ったニールセン氏らが2021年にまとめた欧米7カ国比較(オーストリア、デンマーク、ドイツ、ノルウェー、スペイン、英国、米国)の調査でも、左右の極端に党派的なソースからの情報のみに接している「エコーチェンバー」の割合は、大半の国で合わせて5%程度にとどまった、としている(米国は例外的に、左派10%、右派3%という「エコーチェンバー」の割合だった)。

また、ニールセン氏らが「エコーチェンバー」の一形態と位置付ける「フィルターバブル」に関しては、ソーシャルメディアや検索エンジンなどのアルゴリズムによって情報を選別するプラットフォームは、むしろ接触するメディアの数をわずかに増やす傾向がある、とも指摘する。

その背景として挙げるのは、人々がアルゴリズム抜きで、自ら選択するメディア接触の少なさだ。

英国の場合、人々が1週間で接するメディアの数の中央値は、リアルなメディアでは2件、ネットメディアでも1件、と極めて限定的だという。アルゴリズムが選択したコンテンツを表示することで、メディアの数と多様性は、わずかに増える、とニールセン氏らは指摘する。

その一方で、人々は反対の意見にさらされることで、逆に自分の信念を強め、分断が加速される、とのデューク大学などの研究チームの2018年の調査結果もある。

つまりアルゴリズムは、メディア接触の幅を広げる可能性がある一方で、結果的には分断を加速する可能性もある、ということになる

ニールセン氏らは、少なくとも「フィルターバブル仮説を証明する論文は見当たらなかった」としており、さらなる調査が必要のようだ。

●「信頼の欠如」という原因

ニールセン氏は、BBCのシュラー氏の取材に対し、科学のフェイクニュースに爆発的な拡散の問題があることは認めている。だがフェイクニュース拡散の背景には、人々の体制への不信感がある、とも述べている。

もし既存の組織が、情報へのアクセスをより積極的に制限するようになれば、社会の仕組みについて最悪の疑念を抱く市民はかなり多いのではないか。

フェイクニュースの背景に、人々の政府や公的機関、メディアなどへの不信感があることは繰り返し指摘されてきた。

PR会社のエデルマンが1月18日に発表した2022年版の信頼度調査報告「トラストバロメーター」によると、日本を含む27カ国の調査で、「ジャーナリスト・記者に騙されている」との回答は67%(前年比8ポイント増)に、「自国の政府指導者に騙されている」は66%(同9ポイント増)に上っていた。

信頼の低下もまた、取り組むべき問題であることは間違いない。

(※2022年1月24日付「新聞紙学的」より加筆・修正のうえ転載)