Yahoo!ニュース

広告主が知らぬ間に勝手に「差別」をするフェイスブック広告

平和博桜美林大学教授 ジャーナリスト
(写真:ロイター/アフロ)

フェイスブックは広告主が意図しないユーザー選別を行い、広告表示における差別を広げている可能性がある――。

そんな調査結果を、米ノースイースタン大学などの研究チームが発表した。

ユーザーの属性や興味・関心に合わせたターゲティング広告が、広告を目にするユーザーの偏りを生み、「バイアス(差別・偏見)」を助長している、との指摘は以前からあった。

今回の調査では、広告主が性別や人種などの特別な指定をしなくても、フェイスブック側のアルゴリズムによって、広告が表示されるユーザーの性別や人種に著しい偏りが生じていることを、データに基づいて示している。

フェイスブックはすでにターゲティング広告の問題で、複数の人権団体から相次いで訴訟を起こされており、3月半ばにようやく和解にこぎつけたところだった。

ところがその翌週、今度は米住宅都市開発省(HUD)から、同社の広告ターゲティングツールが人種、性別による差別を許容している、として法律違反による提訴を受ける

AIを使い、広告をユーザーの属性や関心にマッチさせようとすればするほど、それ以外のユーザーは排除され、差別の助長を指弾される。

ターゲティング広告をめぐって波状的に押し寄せる訴訟は、フェイスブックのビジネスモデルの根幹に照準を合わせる。

だがマーク・ザッカーバーグCEOは、そんな訴訟もどこ吹く風。住宅都市開発省の提訴から2日後、ネット上のコンテンツ管理について、新たな法規制導入を政府に要望するという寄稿をワシントン・ポストに掲載している。

順法精神では、折り紙付きとはいいにくいフェイスブック。新法の整備以前に、まず現行法の違反で足元に火がついている。

●アルゴリズムの挙動を探る

ノースイースタン大学などの研究チームによる調査結果「最適化による差別:フェイスブックの広告配信はいかにして偏った表示を行ってしまうのか」が公表されたのは4月3日。

研究チームには、同大学のほか、南カリフォルニア大学、さらにフェイスブックに広告の透明性を要求している人権擁護団体「アップターン」のメンバーも参加している。

フェイスブックのターゲティング広告は、現状では広告主がターゲットを性別や年齢から、地域、教育レベルや収入レベル、興味、家族状況、さらにフェイスブックの利用状況など、細かく指定していくことができる。

from Facebook
from Facebook

また、反対に、これらの属性から特定のグループには広告を配信しない「排除」選択をすることもできる。

広告主によるターゲティング指定の後に行われるのが、フェイスブック側のアルゴリズムによる具体的な配信先ユーザーの選別だ。

このアルゴリズムの詳細については、公開されていない。ただ、これには広告コンテンツの内容や広告主の配信予算、さらにユーザーの広告へのエンゲージメント(反応)などが考慮される、とされている。

そこで研究チームは、フェイスブックのアルゴリズムによるユーザーの選別結果に注目。

実際にフェイスブック上での広告主となり、ターゲティングの指定は幅広い属性とした上で、広告コンテンツの中身を入れ替えるなどして、配信先ユーザーにどのような傾向が現れるかを検証した。

調査は、フェイスブックが広告主に提供している配信結果のデータをもとに行っている。

フェイスブックでは、広告に関するユーザーの属性から「人種」は除外されているため、研究チームはユーザー居住地域の人種構成から推計した。

●広告主が意図しない表示の偏り

研究チームはまず、ボディービルと化粧品という典型的に男女の関心が分かれる広告コンテンツを使い、ユーザーを限定せずに配信した。

すると、ボディービルは男性、化粧品は女性、とステレオタイプの配信先選択が行われる割合が高いことが確認された。

広告コンテンツを、ランディングページのURLだけのものから、見出し、テキスト、画像を順次加えていくことで、その傾向は顕著になっていった、という。

また、スポーツや軍隊などの男性的な画像と、化粧品や花などの女性的な画像を、通常の画像と、人間には空白にしか見えないように画像の透過性を高くしたものを使って配信先を比べた。

From
From "Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes"

だが、通常の画像と透過性の高い画像で、配信先にほとんど違いは見られなかった、という。

これにより、フェイスブックの広告配信先の選択は、画像に関しては、画像認識AIによって自動選別されていることが明らかになった。

研究チームはさらに、実在する求人サイトや不動産仲介サイトにリンクさせた求人広告、住宅広告を配信。その結果を検証した。

すると、求人広告では配信先に顕著な違いがみられた、という。

木材業の5つの求人広告では、90%が男性で全体の70%以上が白人ユーザーだった。一方で、清掃業の5つの求人広告では65%以上が女性で全体の75%以上が黒人ユーザーだった。

From
From "Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes"

また、住宅広告でも、安価な販売物件で白人家族の写真付き(配信先の85%が白人ユーザー)から高価な賃貸物件で黒人家族の写真付き(配信先の35%が白人ユーザー)まで、不動産の種別と掲載画像によって、配信先に大きな偏りがあった、という。

●550億ドルの広告収入と白人至上主義へのターゲティング

フェイスブックの2018年の広告収入は550億ドル(約6兆1000万円)で、前年比38%の伸びだ。

From Facebook Annual Report 2012-2018
From Facebook Annual Report 2012-2018

その一方で、これまでにも「ユダヤ人ヘイト」などの反ユダヤ人キャンペーン(プロパブリカが報道)や、「白人への大量虐殺」という陰謀論を信奉する白人至上主義者らへのターゲティング広告(インターセプトが報道)ができるようになっていたことが明らかになっている。

フェイスブックはこれらの問題を受けて2018年8月、5000件以上のターゲティングのオプションを削除した、と表明していた

だが今年2月、ロサンゼルス・タイムズが独自に検証したところ、「ゲッペルス」「ヒムラー」といったナチス幹部に関心を持つユーザーに向けたターゲティング広告が配信できるようになっていた、と報じている。

これに加えて白人至上主義のパンクバンドのファンに向けたターゲティング広告も配信。24時間の検証で、合わせて4153人のユーザーが広告を目にしたが、かかった費用はわずか25ドル(2800円)だったという。

フェイスブックは2017年から、アルゴリズムだけでなく人間の目でターゲティング広告のカテゴリをチェックする、と表明していた。だが、十分機能していなかったことになる。

●相次ぐ訴訟と和解、そして米政府による提訴

フェイスブックが抱えるターゲティング広告の問題は、ヘイトや白人至上主義だけではない。

住宅や求人、与信などのターゲティング広告で、人種や性別にもとづく差別が可能になっているとして、全米自由人権協会(ACLU)や全米公正住宅同盟(NFHA)、全米通信労組(CWA)などの人権擁護団体や労組から相次ぐ訴訟も起こされていた。

これらの訴訟について、フェイスブックCOOのシェリル・サンドバーグ氏は3月19日、「歴史的和解」に合意した、と表明。

今後、住宅、求人、与信の広告に関しては、年齢、性別、郵便番号でのターゲティング指定はできないようにする、などのサービス変更を明らかにした。

From U.S. Department of Housing and Urban Development
From U.S. Department of Housing and Urban Development

だがそれから9日後の3月28日、今度は米住宅都市開発省から、フェイスブックの広告システムが「住宅に関する差別を助長し、可能にし、引き起こしている」として、住宅に関して人種や性別による差別を禁じる公正住宅法違反だとして提訴される事態となった。

そんな騒動の渦中で、今回の研究チームの発表となったわけだ。

●ターゲティング広告の差別、グーグルでも

ターゲティング広告が差別を生むのは、フェイスブックに限ったことではない。

カーネギーメロン大学などの研究チームが2014年8月に発表した論文で調べたのは、グーグルの広告配信システムのAIだった。

グーグルの2018年の広告収入は1163憶ドル(約13兆円)で前年比22%増。親会社であるアルファベットの収入の85%をグーグルの広告が稼ぎ出している。

研究チームは専用プログラムを使って、男女半々で合わせて1千人の架空ユーザーをつくり出し、それぞれに100カ所の求職サイトを閲覧させた上で、グーグルから表示される広告を測定した。

すると、男性の架空ユーザー向けには年収20万ドル(約2200万円)以上の役員ポストをうたう転職支援サービスの広告が1800回表示されたのに、女性の架空ユーザーには同様の広告は300回しか表示されなかった。女性向けには、一般的な求人サービスや自動車販売などの広告が、男性向けよりも多く表示されたという。

ただし、この実験結果には、グーグルのAIの判定だけでなく、広告主による配信先の指定が影響している可能性もあるという。

●ビジネスモデルの根幹に潜む差別

広告アルゴリズムが招く差別は、フェイスブック(およびグーグル)のビジネスモデルの根幹にかかわる問題だ。

ターゲティングの精度を下げていけば、そのビジネスを揺るがす可能性もある。

プライバシー問題、そしてこの差別問題がのしかかる中で、ザッカーバーグCEOは3月30日、ワシントン・ポストへの寄稿で「有害コンテンツ」「選挙の公正性」「プライバシー」「データポータビリティ」の4分野での新たな法規制を求めた。

ザッカーバーグ氏はこう述べる。

今こそこれらのルールをアップデートするときだ。人々が企業が政府が前へ進むために、それぞれの責任を明確に示すのだ。

問題は、その責任をフェイスブックが率先して果たす用意があるのかどうか、だろう。

●「プライバシー重視」への転換が示すもの

ザッカーバーグ氏はこれに先立つ3月7日、フェイスブックの「プライバシー重視」の姿勢を示し、より少人数に閉じたサービスに転換すると表明している。

インターネットの未来を考えた時、私はプライバシーを重視したコミュニケーションプラットフォームが、現在のオープンプラットフォームよりも一層重要になると信じている。

だがザッカーバーグ氏は、ユーザーのプライバシーの扱いをめぐって大きな批判浴び続けてきた

そして、2010年には、プライバシーをめぐって、こんな発言もしている

ユーザーはより多くの、様々な情報を共有することだけでなく、よりオープンに、より多くの人々と共有することに慣れてきた。(プライバシーをめぐる)社会規範は、つねに移り変わっていくものだ。

プライバシーはもはや社会規範ではない――この発言は、そう受け止められた。

かつての「オープン」派が、10年足らずの間に「プライバシー重視」派に転向したと信じるのは容易ではない。

そして、この「プライバシー重視」方針を、少なくともメディアは額面通りには受け取っていない

元英ガーディアン電子版編集長でコロンビア大学デジタルジャーナリズムセンター所長、エミリー・ベル氏は、フェイスブックの「プライバシー重視」表明を、こう見ている。

これはプライバシーの再評価などではなく、フェイスブックが抱える問題をめぐる高額のコストと規制に対処するための、企業防衛だ。

その問題の一つが、オープンプラットフォームであることから「メディア」としてのコンテンツ管理への責任を厳しく追及され続けるフェイクニュース問題だ。

閉じたメッセージサービスへと転換すれば、その責任も回避しやすい。

そしてフェイスブックのターゲティング広告も、特に2016年の米大統領選でフェイクニュース拡散やトランプ氏支援に不正に使われていた疑いが、ロシア疑惑の捜査や、ケンブリッジ・アナリティカの問題などから明らかになっている。

フェイスブックは、その責任に向き合う企業なのか。問われているのは、その点なのだろう。

(※2019年4月7日付「新聞紙学的」より加筆修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事