「いいね」が多いとついデマでも拡散してしまう、それはなぜ?

Avram,Micallef,Patil,Menczer (CC BY 2.0)

「いいね」や「シェア」の数が多いほど、それを見たユーザーが、デマ拡散に拍車をかけることになってしまう――。

インディアナ大学教授のフィリッポ・メンツァー氏らの研究チームが、8,500人が参加したゲーム形式の実験から、そんな結果をまとめた。

ソーシャルメディア経済の通貨ともいえる、「いいね」や「シェア」などのエンゲージメント数。

一方でエンゲージメント数は、自動応答プログラム「ボット」による拡散や闇売買などの、不正操作も問題視されてきた。

さらに、このような「フェイクエンゲージメント」がフェイクニュース氾濫を後押ししている、とも指摘される。

そのエンゲージメント数が、ユーザーにとっては、他のユーザーによる「支持」として受け止められ、拡散に拍車をかける。しかも信頼性の低いコンテンツほど、その傾向が強い――メンツァー氏らの研究は、そんな結果を示している。

ソーシャルメディア経済の通貨が、デマ拡散の原動力にもなっている。そんな根強い批判が、実験データによって改めて示されたことになる。

ツイッターインスタグラムは、すでに「いいね」の数を非表示にするといった実験も行っている。

メンツァー氏らは「エンゲージメントの表示を再検討する必要がある」と指摘している。

●8,500人が参加したゲーム

インディアナ大学のフィリッポ・メンツァー氏らの研究チームの実験結果は7月28日、ハーバード大学ケネディスクール(行政大学院)が発行する「ミスインフォメーション・レビュー」に掲載された。

メンツァー氏はインディアナ大学ソーシャルメディア観測所の所長を務め、偽情報の拡散対策の取り組みで知られる。

ソーシャルメディア観測所では、ツイッターのアカウントが自動応答プログラム「ボット」か人間のユーザーかを判定するツール「ボット・オー・メーター」や、偽情報の拡散を視覚化する「ホークシー」、「ボット」を使った組織的なキャンペーンをあぶりだす「ボットスレイヤー」などのツールを公開してきた。

2017年には、「ボット・オー・メーター(旧名称ボット・オア・ノット)」を使い、ツイッターアカウントに「ボット」が占める割合を9%から15%と推定している。

メンツァー氏らの研究チームが、今回の実験に使ったのは、ネット上のフェイクニュースを判定するゲーム「フェイキー」だ。

これは、一定の信頼性が確認されているニューヨーク・タイムズやワシントン・ポスト、AP通信、CNN、BBCなどの既存メディアと、フェイクニュースの発信などにより信頼性が低いとファクトチェック団体などから認定されているサイトのコンテンツを、それぞれ発信元を明かさずにランダムに表示し、ユーザーが「シェア」「いいね」「ファクトチェック」の3つのボタンから対応を選ぶゲームだ。

表示されるのは画像、見出し、ニュースの冒頭抜粋、さらに「***人がこれを『いいね』『シェア』しました」というエンゲージメント数がセットになった10本のニュース。ただしエンゲージメント数は、ランダムに生成された数字が示されている。

信頼できる、と思う場合は「いいね」、さらに強く信頼する場合は「シェア」、疑わしい場合は「ファクトチェック」を押す。信頼度の高いサイトと「いいね」「シェア」、信頼性が低いサイトと「ファクトチェック」の組み合わせなら得点、逆の組み合わせなら減点される。

ゲームはウェブとスマートフォンアプリとして公開。2018年5月から2019年11月までの19カ月で、8,606人のユーザーが参加し、12万件のニュースを判定した。参加者は米国が78%のほか、オーストラリア(8%)、英国(4%)、カナダ (3%)と大半が英語圏だった。

●エンゲージメントと拡散

まず、メンツァー氏らの実験から明らかになったのは、エンゲージメント数が多ければ多いほど、「ファクトチェック」の割合は下がり、「いいね」「シェア」の割合が上がるという傾向だ。

この傾向は既存メディアでも確認できたが、信頼性の低いサイトでより顕著に示された、という。

Avram, M.; Micallef, N.; Patil, S.; Menczer, F.  (CC BY 2.0)
Avram, M.; Micallef, N.; Patil, S.; Menczer, F. (CC BY 2.0)

信頼性の低いサイトのニュースに対する参加者の反応は、全体としては懐疑的だった。「ファクトチェック」のボタンを押した割合は、「いいね」「シェア」の割合に比べて、倍近くにのぼっていた。

だが、それぞれのニュースで示されたエンゲージメント数を「高」「中」「低」の3つに分けて分析したところ、「ファクトチェック」を選んだ割合は、エンゲージメント数が「高」の場合が最も少なく、「中」「低」の順で増えていた。

一方で、「いいね」「シェア」を選んだ割合は、エンゲージメント数「高」の場合が最も多く、「中」「低」と下がっていった。

ソーシャルメディアの仕組み(アルゴリズム)では、コンテンツに対する「いいね」や「シェア」の数が多くなれば、より多くのユーザーに表示されることになる。

メンツァー氏らの実験結果によれば、この仕組みに加えて、「いいね」や「シェア」の表示数が高ければ高いほど、それを目にしたユーザー側の反応も、より拡散へと傾くことを示している。

しかも、一定の信頼性が担保された既存メディアのニュースよりも、デマや疑わしい情報の方が、「いいね」「シェア」の数の影響によって、より拡散に拍車がかかる。

「いいね」「シェア」を軸にして、ソーシャルメディアの仕組みとユーザー側の反応の相乗効果が、デマ拡散の負のスパイラルを招いていることになる。

●エンゲージメント数、不正操作の懸念

「いいね」「シェア」などのエンゲージメントは、コンテンツの伝播や影響力を測る上で重要な指標と見られてきた。フェイスブック傘下の「クラウドタングル」など、専用の分析サービスも提供されている。

ただ、以前からその弊害を指摘する声も上がっていた。

一つは、自動応答プログラム「ボット」の存在だ。

「ボット」によって「いいね」や「シェア」を自動的に増幅させることも可能になり、そのようなサービスを提供する業者もある。

そしてこのような「フェイクエンゲージメント」がフェイクニュース氾濫を後押ししている、とも指摘されてきた。

ソーシャルメディア各社は、このような「フェイクエンゲージメント」を禁じている。

しかし、規制の実態には、なお問題もあるようだ。

北米と欧州の国際軍事機構である北大西洋条約機構(NATO)の研究・研修機関「戦略コミュニケーション卓越センター(StratCom COE)」は2019年12月に「フェイクエンゲージメント」に関する報告書をまとめている。

報告書によると、同センターが「フェイクエンゲージメント」を実際に購入した上でソーシャルメディア各社に通告する、という実証実験を行ったところ、95%が放置されたままだったとし、「組織的フェイク行為への対策は落第」だったとしている。

※参照:「ソーシャル各社、フェイク闇市場の対策は落第」SNSに通報後も95%は放置(12/08/2019

●「いいね」数非表示の実験

ソーシャルメディア側にも取り組みの動きはある。

ツイッターは2019年3月、新機能テストのためのプロトタイプアプリ「twttr」をリリース

この中で、「いいね」「リツート」の数を非表示にする取り組みも盛り込んでいた。

またフェイスブック傘下のインスタグラムも翌4月から「いいね」の数を非表示にするといったテストを、当初はカナダから始め、日本を含む各国へと拡大した。

これらの取り組みは、「いいね」や「シェア」の数が、特に若者にとってプレッシャーになり、精神衛生に悪影響を及ぼす、との指摘がなされていることも背景にある。

メンツァー氏らは、今回の実験結果を受けて、こう指摘している。

これらの結果は、ソーシャルメディアのプラットフォームが、エンゲージメントの指標をどのように表示すべきか、再検討する必要があることを示している。誤情報の拡散に拍車をかけず、正しい情報の拡散を妨げないようにするべきなのだ。

そしてユーザー側も、エンゲージメント数の見方を、考え直す必要がありそうだ。

(※2020年8月10日付「新聞紙学的」より加筆・修正のうえ転載)