Yahoo!ニュース

FacebookのAIアルゴリズムを止めても「政治的分断」は変わらず、そのわけとは?

平和博桜美林大学教授 ジャーナリスト
「分断」は変わらず(Bing Image Creatorで筆者作成)

フェイスブックのAIアルゴリズムを止めても、政治的な分断は変わらなかった――。

フェイスブックが2020年米大統領選にどんな影響を与えたかを、膨大な内部データを使って分析した4つの論文が7月27日、学術誌の双璧である「サイエンス」と「ネイチャー」の両方で一斉に公開され、話題を呼んでいる。

2020年米大統領選では、敗れた前大統領ドナルド・トランプ氏らによる「不正選挙」との根拠のない主張のもと、翌2021年1月に数千人規模の群衆が開会中の連邦議会議事堂に乱入。多数の死傷者と逮捕者を出した。

その主張が拡散した舞台の1つとされたのが、フェイスブックだった。

だがフェイスブックはユーザーの投稿データを原則として公開しておらず、フェイクニュース拡散や分断の実態分析には高いハードルがあった。

今回の一連の論文は、17人の著名な外部研究者のチームに加えて、メタの研究者が参加し、その膨大な内部データを直接、分析対象としている点に特徴がある。

論文のテーマには、フェイクニュースや陰謀論の拡散、社会の分断(二極化)の背景として指摘されてきた情報のタコツボ化現象「フィルターバブル」「エコーチェンバー」が取り上げられている。

内部データの分析からわかった、フェイスブックの選挙への影響とは?

●「フィルターバブル」停止でも「二極化」は変化せず

同意したユーザーのサンプルを、デフォルトのアルゴリズムではなく、逆時系列のフィードに割り当てた。アルゴリズムによるフィードからユーザーを離脱させると、プラットフォームでの滞在時間と活動が大幅に減少した。時系列フィードは、コンテンツへの接触にも影響を与えた:両プラットフォームで、政治的で信頼できないコンテンツが増加。フェイスブックでは、不穏当、もしくは中傷的な言葉を含むコンテンツが減少し、穏健な友人や、イデオロギーが混在するソースからのコンテンツが増加した。このようにユーザーのプラットフォーム上での体験には大きな変化があったものの、時系列フィードは3ヶ月の調査期間中、テーマの二極化、感情的な二極化、政治的知識、その他の主要な態度のレベルに有意な変化を与えなかった。

プリンストン大学助教、アンドリュー・ゲス氏ら29人の研究チームは、7月27日付でサイエンスに掲載された論文でそう述べている。

この分析で焦点となったのが、「フェイルターバブル」と呼ばれる現象だ。

フェイスブックなどのプラットフォームのコンテンツ表示を決めている仕組みが、AIを使ったアルゴリズムだ。

ユーザーの利用履歴をもとに、最もその考えや好みに合い、より長い時間利用し、より多くの「いいね」やコメントなどの反応(エンゲージメント)をして、より多くの広告を見てくれそうなコンテンツを選別し、優先順位をつけて表示する。

だがその選別によって、ユーザーの考えや好みに合わないコンテンツからは排除され、社会の分断(二極化)を後押しするのでは、との懸念が指摘されてきた。

そこで研究チームは、フェイスブックとインスタグラムの通常のアルゴリズムを停止し、代わりに、コンテンツの内容にかかわらず、常に最新投稿がトップに表示される逆順の時系列でコンテンツを表示させ、ユーザーの反応を調査した。

逆順の時系列のコンテンツ表示とは、かつてのツイッターのタイムラインのようなものだ。

参加者はフェイスブック、インスタグラムで募集。実験に同意したユーザー(フェイスブック・2万3,391人、インスタグラム:2万1,373人)を対象に、大統領選の投開票(11月8日)をはさんだ2020年9月24日から12月23日までの3カ月、実施した。

その結果、時系列表示のユーザーは、特にフェイスブックで利用時間が大幅に短くなり、エンゲージメントも半減程度に落ち込んだ。

また、ユーザーと同じ政治的志向のソース(発信元)からのフィードが10.4%減少した一方、穏健/混合ソースからのフィードは36.7%増加するなど、表示されるコンテンツは大きく様変わりした。

だが、「感情的な二極化」「テーマの二極化」「選挙の知識」「ニュースの知識」「政治参加」「投票」といった二極化に関わるような政治的態度の変容は、ほとんど確認できなかった、という。

アルゴリズムからの離脱は、誰でも体験できる。

ニュースフィード表示を、アルゴリズムによる編成から逆順時系列に切り替える設定が、フェイスブック、インスタグラムの機能に備わっている。

フェイスブックの場合、パソコンなら画面左側のメニュー、スマートフォンアプリではユーザーアイコンから、「フィード」と書かれた小さな時計マークのついたアイコンをクリック(タップ)すると、画面には時系列の逆順に並んだコンテンツが表示される。

画面上(パソコン、アプリは画面下)のホーム(家のマーク、ニュースフィード画面)アイコンをクリック(タップ)することで、元のアルゴリズム表示画面に戻る。

インスタグラムでも、アプリなら「インスタグラムのロゴ」→「フォロー中」をタップ、パソコンならURLに「?variant=following」と追加すると、アルゴリズム表示から逆順時系列表示になる。

●「エコーチェンバー」を低下させる

エコーチェンバーの影響への懸念について、対応の可能性を評価するために、我々は2020年の米大統領選挙期間中、フェイスブックの2万3,377人のユーザーを対象に、同じ政治的志向の情報ソースからのコンテンツへの露出を約3分の1にまで減らすマルチウェーブ・フィールド実験を行った。その結果、介入によって、横断的な情報ソースからのコンテンツへの接触が増加し、不穏当な表現への接触は減少したが、感情的な二極化、イデオロギーの極端さ、候補者の評価、虚偽の主張に対する信念など、事前に設定していた8つの態度指標には測定可能な効果は見られなかった。

ダートマス大学教授、ブレンダン・ナイアン氏ら、上記とほぼ同じ外部研究者とメタの研究者、計30人の研究チームは7月27日、学術誌「ネイチャー」に掲載した論文で、そう述べている。

ナイアン氏は、ファクトチェックの指摘が逆に誤った理解への確信を強めてしまう「バックファイアー効果」の研究などで広く知られる。

※参照:偽ニュースの見分け方…ポスト・トゥルース時代は、まだ来ていない(12/31/2016 新聞紙学的

ナイアン氏らが研究の焦点としたのは、「エコーチェンバー(反響室)効果」と呼ばれる現象だ。

ネット上で自分と同じ考えの意見ばかりに囲まれることで、次第にそれが過激化、先鋭化していく状況を指す。「フィルターバブル」とともにフェイクニュース拡散や二極化の背景と指摘されてきた。

実験では、「エコーチェンバー」のレベルを人為的に低下させることによる効果を測定。

平均して半分程度(53%)である同じ政治的志向の情報ソースからのコンテンツ接触を、3分の1程度(36.2%)に低下させるフィード表示の変更を、やはり2020年米大統領選投開票をはさんだ同年9月24日から12月13日までの3カ月間実施した。

その結果、態度変化の評価項目として設定した「感情的二極化」「イデオロギー的極端さ」「イデオロギー的に一貫した問題意識」「集団評価、投票選択と候補者評価」「選挙の不正行為と結果、選挙制度に対する考え方」「選挙規範の尊重に関する党派対立的な信念と見解」で、目立った変化は見られなかった、という。

この結果について研究チームは、「ソーシャルメディア上で同じ志向の情報ソースからのコンテンツに接触することは一般的だが、2020年米大統領選挙期間中にその氾濫を減少させても、それによって二極化にまつわる信念や態度が低下するわけではないことを示唆している」と述べている。

●フェイクニュースへの接触と共有機能

残る2つの論文は、いずれも「サイエンス」に他の2論文と同じ7月27日に掲載されている。

ペンシルベニア大学教授、サンドラ・ゴンザレス・バイロン氏ら27人による論文は、フェイクニュースへの接触と、政治的立場の関係を分析した。

この分析はリアルタイムのものではなく、米国のフェイスブックユーザーのうち、政治的立場を明確にしている2億800万人の統計データを対象としている。

分析の結果、ファクトチェック団体が虚偽と判定したコンテンツの97%は、リベラル派よりも、主に保守派のユーザーが接触したり、エンゲージメントを取ったりしていたことが明らかになったという。

プリンストン大学のアンドリュー・ゲス氏が再び筆頭著者となっている29人連名の4本目の論文が焦点を当てているのは、フェイスブックの「共有」機能だ。

ソーシャルメディア上でフェイクニュース拡散、二極化の背景の1つとして、共有ボタンを押すだけで手軽に情報拡散ができることも指摘されてきた。

実験ではフェイスブックで募集したユーザー(2万3,402人)を対象に、やはり2020年米大統領選投開票をはさんだ3カ月間、共有されたコンテンツをフィード上から削除し、その影響を調べた。

その結果、フィード上の政治ニュースが大幅に減少し、それに加えて、ユーザーのクリック、エンゲージメントも減少したという。

ただ共有コンテンツの削除は、政治的な二極化や政治的態度には大きな影響は与えなかった、という。

「フィルターバブル」「エコーチェンバー」の影響に関する研究は、以前から行われてきた。

2022年1月19日には、英王立学会が「ネット情報環境」と題した報告書を公開。その関連論文として、報告書のワーキンググループのメンバーでもある、オックスフォード大学のロイター・ジャーナリズム研究所の所長、ラスムス・クライス・ニールセン教授らが、「エコーチェンバー」「フィルターバブル」に関する131本の論文を検証した文献レビューをまとめている。

ニールセン氏らは、その結果として、少なくとも「フィルターバブル仮説を証明する論文は見当たらなかった」と結論づけている。

※参照:「フェイクの削除は有害」?それでも削除すべき理由とは(01/24/2022 新聞紙学的

●フェイスブックのデータと調査

今回の研究プロジェクト発表されたのは、2020年米大統領選が終盤を迎えた8月31日だった

17人の外部研究者を中心に、メタの研究者らも参加。メタの内部データを直接操作する分析作業は、同社のプライバシーポリシーを理由に、同社の研究者のみが担当した。

プロジェクトの立ち上げ時期は、コロナ禍と大統領選が重なり、陰謀論グループ「Qアノン」の拡大、トランプ氏らの根拠のない「不正選挙」の主張など、波乱は必至の様相となっていた。

フェイスブックの特徴は、ソーシャルメディア最大と言われる30億人規模のユーザー数と、データに関するその閉鎖性だ。

原則としてそのデータは公開されておらず、研究は、ユーザーの協力者を募るか、スクレイピング(コピーによる収集)か、公開情報をもとにする、などの方法に限られていた。

フェイスブックを巡っては、大量のユーザーデータが本人同意のないままに分析に使われたり、流出したりし、批判の的となってきた経緯がある。

2014年6月には、70万人近いユーザーのデータをもとに「感情伝染」の実験を行い、学術誌「米科学アカデミー紀要(PNAS)」に論文を掲載。実験はユーザーの十分な合意を取っておらず、批判を浴びた。

※参照:フェイスブックがユーザー689,003人の感情をコントロールする(06/29/2014 新聞紙学的

さらに2018年3月には、8,700万人分のユーザーデータが流出し、2016年の米大統領選トランプ陣営に持ち込まれたとされるケンブリッジ・アナリティカ事件が発覚する。

※参照:トランプ大統領を誕生させたビッグデータは、フェイスブックから不正取得されたのか(03/18/2018 新聞紙学的

従来はユーザーデータの学術研究への提供には消極的だったフェイスブックだが、ケンブリッジ・アナリティカ事件の翌4月、選挙への影響に関する研究へのデータ提供プロジェクトを打ち上げる。

このプロジェクトのデータ管理団体として、研究者らがNPO「ソーシャル・サイエンス・ワン」を立ち上げた。

また、研究プロジェクトの選考は学術団体「社会科学研究協議会(SSRC)」が担い、アーノルド財団、民主主義基金、ヒューレット財団、コッチ財団、ナイト財団、オミディア・ネットワーク、スローン財団が資金を提供するという態勢を整えた。

だが、フェイスブックからのデータ提供は遅々として進まず、1年後の2019年9月末には、終了の危機もささやかれた。

そして、データの一部は提供拒否となりながら、2020年2月にようやくデータアクセスが始まった

だが、全体で42兆件にものぼるデータは、大きな欠陥を抱えていた。2021年9月、フェイスブックが、米国の全ユーザーの約半数に当たる、政治的傾向が検出できなかったユーザーのデータを誤って除外していたことが明らかになる。このデータは少なくとも110人の研究者と共有されており、その欠陥は大きな批判を浴びた。

今回の選挙への影響に関するデータ研究は、この時の「ソーシャル・サイエンス・ワン」の枠組みを拡張した形で進められた

この間の2021年9月からは、フェイスブックの元プロダクトマネージャー、フランシス・ホーゲン氏による一連の内部告発「フェイスブック文書」が明らかになる。

特に、インスタグラムの利用が10代の少女のメンタルに悪影響を与えていることを社内調査で把握しながら、十分な対策をとってこなかったとされ、そのアルゴリズムの問題を巡り、特に大きな批判を浴びた。

※参照:Facebookが抱えるコンテンツ削除のトラウマとは、著名人580万人「特別ルール」の裏側(09/15/2021  新聞紙学的

●研究ではわからなかったこと

今回の実験結果は、メタのプラットフォームの主要な機能だけでは、有害な"感情的"二極化を引き起こしたり、こうした結果に意味のある影響を与えたりするという証拠はほとんどないことを示す、増えつつある研究結果を後押しするものだ。

メタ副社長のニック・クレッグ氏は7月27日、同社の公式ブログでそう述べている

一方、今回の研究者チームの中心的役割を担ったニューヨーク大学教授のジョシュア・タッカー氏と、テキサス大学オースチン校教授のタリア・ストラウド氏は、ニュアンスの違う共同コメントを公開している。

アルゴリズムが、人々のプラットフォーム上での体験を形成する上で、どれほど影響力があるのかがわかった。だが、数か月にわたってアルゴリズムを変更しても、人々の政治的態度を変えることにはならないということもわかった。わからないのはその理由だ。アルゴリズムを変更した期間が十分でなかったからかもしれないし、これらのプラットフォームはすでに何十年も存在しているからかもしれない、またフェイスブックやインスタグラムは影響力のある情報ソースではあるが、人々の唯一の情報ソースではないのかもしれない。

また、研究プロジェクトに全体の監査の立場で参加したウィスコンシン大学マディソン校教授、マイケル・ワグナー氏は、「サイエンス」でこう述べている

これでフェイスブックが大きな問題でないとか、ソーシャルメディアプラットフォームが問題でないと言うのは、ちょっとボタンの掛け違いが過ぎる。

これらの研究からは、「わからない」ことがわかった、とは言えるのだろう。

このプロジェクトにまつわる論文は今回の4本を含めて全部で16本に上るという。さらなる公開を待ちたい。

(※2023年7月31日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事