YouTubeのアルゴリズムに「やや右派推し」のバイアス、ユーザーが気付かぬその仕組みとは?
ユーチューブが次の動画をおすすめするアルゴリズムには「やや右派推し」の傾向があり、ユーザーを「マイルドなエコーチェンバー(反響室)」に後押ししている――。
米ニューヨーク大学の研究チームは10月13日、米シンクタンク「ブルッキングス研究所」のサイトに掲載した記事で、そんな研究結果を明らかにしている。
世界で20億人超の月間ユーザーを抱え、1日あたり10億時間の動画が視聴されるユーチューブ。
フェイクニュースなどの有害コンテンツ拡散の舞台の一つとされるプラットフォームだが、特にそのおすすめアルゴリズムが、ユーザーを有害コンテンツに誘い込むのでは、との懸念が消えない。
ニューヨーク大の研究チームは調査の結果、そこにユーザーが気付かない「やや右派推し」のバイアス(偏り)があることが初めてわかった、という。
おすすめアルゴリズムに潜む、そのバイアスの仕組みとは?
●「ウサギの穴」とエコーチェンバー
ニューヨーク大学ソーシャルメディア・政治センター(CSMaP)共同所長のジョシュア・A・タッカー教授らの研究チームは10月13日付の「ブルッキングス研究所」の記事の中で、そう述べている。
タッカー氏らの記事は、研究チームが今年5月にまとめた報告書を下敷きにしている。
エコーチェンバーとは、自分と同じような意見ばかりがこだまのようにくり返されるネット上の状況を指す。それによって視野が狭まり、意見が先鋭化、過激化していくとされ、フェイクニュースや陰謀論の拡散とのかかわりが指摘されてきた。
その舞台の一つとされるのがユーチューブだ。
ユーチューブには、AIのアルゴリズムが、ユーザーが視聴したものと同種の動画を次々とおすすめしていく機能がある。
このおすすめによる動画の視聴は、1日当たり10億時間にのぼる視聴時間のうち、70%以上を占めるという。
おすすめのアルゴリズムはまた、ユーザーが陰謀論などにはまり込む危険性も懸念されている。
タッカー氏らの研究チームが調査したのは、そのおすすめアルゴリズムとエコーチェンバーとのかかわりだ。
研究チームは2020年秋に、ユーチューブのユーザー527人を募集。ブラウザーにプラグインをインストールしてもらい、それぞれが実際に使っているアカウントでユーチューブにログイン後に、アルゴリズムにおすすめされた動画の視聴を20回にわたって繰り返し、その結果を記録した。
参加ユーザーの政治的立場は、保守、リベラル、中道に分かれる。おすすめ動画の政治的傾向の評価は、米電子掲示板「レディット」の900近い政治関連コーナーに2021年までの10年間に投稿された、6万件を超すユーチューブ動画を学習したAIを使って行った。
このユーザーの政治的立場とおすすめ動画の政治的傾向を組み合わせて、アルゴリズムの効果を分析した。
●約3%のユーザーが陥る
研究の結果、ユーザーが保守かリベラルか中道かに関係なく、おすすめ動画視聴の回数を重ねるごとに、アルゴリズムはすべてのユーザーに対して、やや保守的な動画をおすすめする傾向が確認できたという。
また、おすすめコンテンツの政治的な幅が、ユーザーの政治的な立場に沿って狭まっていくエコーチェンバーの傾向もわずかながら確認したという。ただ、「私たちが確認した保守的なイデオロギーのバイアスの大きさは、エコーチェンバーの大きさをはるかに上回った」と述べている。
ユーチューブのおすすめアルゴリズムでは、エコーチェンバーの効果よりも、「保守推し」のバイアスの方がずっと強かった、ということだ。
だが、この「保守推し」バイアスが、アルゴリズム自体に起因するのか、ユーチューブのコンテンツ全体の傾向をアルゴリズムが反映しているのかは、今回の調査からはわからない、という。
一方で、おすすめ動画をたどった果てに、先鋭化したコンテンツに行き着き、「不思議の国のアリス」でアリスがはまり込んだような「ウサギの穴」に落ちたユーザーも、少数ながらいたという。
さらにこう述べている。
●おすすめし続ける理由
ユーチューブにとっては、ユーザーがより長い時間をかけて、多くの動画を見てくれることが、ビジネスにかなう。そのためには、ユーザーの見たそうなものを、先回りしておすすめし続けるインセンティブが働く。
だが、この仕組みが有害コンテンツ拡散を後押しする、とかつてユーチューブでおすすめアルゴリズムを担当したギヨーム・シャロー氏は警告してきた。
また、グーグルと同じアルファベット傘下のAI企業、ディープマインドの研究チームは2019年3月、ユーチューブに限定してはいないものの、おすすめアルゴリズムが「エコーチェンバー」「フィルターバブル」を引き起こす可能性がある、との調査結果を明らかにしていた。
プラットフォームに対するフェイクニュース拡散への批判が高まる中で、ユーチューブは2019年1月、規制ぎりぎりの内容でユーザーのアテンション(関心)を集めようとする「ボーダーラインコンテンツ(有害コンテンツ)」のおすすめの優先順位を下げる、というアルゴリズム変更を発表している。
2021年9月の発表では、この結果、米国ではおすすめによる有害コンテンツ視聴は70%減少し、おすすめによる視聴全体の1%未満となっているとした。
ただ、今回のニューヨーク大学の研究でも、ユーチューブのアルゴリズムのおすすめをたどった結果、約3%の調査参加者が「ウサギの穴」に落ちていた。
一方、「ウサギの穴」に落ちる原因は、おすすめアルゴリズムだけではない、との研究結果もある。
米ニューヨーク市立大学などの研究チームが2022年4月に発表した調査は、ユーチューブのおすすめアルゴリズム変更後の2020年7月から12月末にかけて、米国の1,181人が参加して行われた。
調査の結果、オルタナティブ(非主流)や過激主義のコンテンツにはまる、「ウサギの穴」に落ちたケースは、ジェンダーや人種への反感を持つ少数の人々に集中していたという。
また多くの場合、そのようなコンテンツを発信するユーチューブチャンネルに登録をしており、アルゴリズムにおすすめされやすい状態だったという。そして、これらのチャンネルの登録ユーザーでない場合には、おすすめされるケースはほとんどなかった、とも述べている。
また、アルゴリズムによるおすすめではなく、外部のリンクをたどって有害コンテンツを視聴に訪れるケースも多かった、と指摘する。
●「右派推し」の背景
ユーチューブのおすすめアルゴリズムには、わずかながら「右派推し」の傾向がある。ただ、このような傾向はユーチューブに限ったものではない。
2021年には、ツイッターの社内調査でも、同社のアルゴリズムが、右派(保守派)政党の政治家のツイートを、左派(リベラル派)政党よりも多くのユーザーに表示する傾向があり、カナダではその割合は4倍にも上っていたことが明らかになっている。
※参照:TwitterのAIに「右派推し」のバイアス その対策とは?(10/25/2021 新聞紙学的)
ユーザーは気付かぬうちに、少しずつおすすめアルゴリズムのバイアスにさらされているのは、確かなようだ。
(※2022年10月21日付「新聞紙学的」より加筆・修正のうえ転載)