フェイクニュースより恐ろしい、アルゴリズムの「偏見」とは何か?

アルゴリズムに偏見が紛れると恐ろしいことに(ペイレスイメージズ/アフロ)

 2016年の米大統領選から注目され、現在に至るまで問題となっているフェイクニュース(虚偽ニュース)。フェイクニュース対策は重要ですが、さらに大きな問題も指摘されています。それは「アルゴリズムの偏見」であり、コンピュータの偏見によって我々が不当に扱われる問題が危惧されています。この問題に対して、テクノロジー企業が今後すべき対策とはどのようなものでしょう。

アルゴリズムとその問題

 そもそもアルゴリズムとは何でしょうか。コンピュータ業界においてアルゴリズムとは「計算方法」という意味で用いられています。例えば将棋や囲碁で人間に勝利した人工知能に組み込まれている「戦い方」だったり、より身近なところでは、グーグル検索の掲載順を選定する計算方法もアルゴリズムです(人工知能とアルゴリズムの関係は専門的にはより詳しい解説が必要なのですが、本稿ではアルゴリズムを広く「計算方法」という意味で用います)。アルゴリズムはIT企業などのサービスの根幹に位置するものですが、アルゴリズムに問題が発生すれば、我々の生活にも大きな影響をもたらします。

 例えばフェイスブックでは、ユーザーが目にする投稿の順番はアルゴリズムが決定していますが、この原理を我々が知ることはありません。日本には搭載されていない機能ですが、英語圏のフェイスブックには「トレンディングトピックス」という、その時話題となっている記事を紹介する機能があります。米ピューリサーチが2016年5月に発表した調査報告によれば、アメリカの成人44%、つまり1億人を超える人々がフェイスブック経由でニュースを閲覧しています。ですが、2016年8月から記事選定に人間を排してアルゴリズムに任せた結果、デマやフェイクニュースがトレンド入りしてしまい、ユーザーから批判を浴びた事件がありました。

 2016年はほかにも、フェイスブック上でピュリッツァー賞を受賞した報道写真「ナパーム弾の少女」が削除されたり、食べログのランキングがおかしいと指摘されましたが、これらにはアルゴリズムの問題が深く関わっています。とはいえ、こうした例はユーザーによって問題が指摘しやすいものでした。しかし重要なのは、ユーザーだけでは見抜くことの困難な、アルゴリズムの「偏見」です。

犯罪予測に用いられるアルゴリズム

 アメリカでは2016年に「COMPAS」という「再犯予測ソフト」が話題になりました(詳しくは朝日新聞記者の平和博氏のブログが大変参考になります)。アメリカでは人の行動パターンから犯罪が起きそうな場所と時間を予測する犯罪発生予想ソフトや、犯罪者が再び罪を犯してしまう確率を予測する再犯予測ソフトが一部の州で用いられています。

 しかし、本当にCOMPASの判断は信頼できるものなのでしょうか。それを調べるには、COMPASに用いられたアルゴリズムを検証しなければなりません。そこでアメリカのメディア「プロパブリカ」は、フロリダ州の情報公開法を利用して、COMPASが再犯予測を評価した1万人以上のデータを独自に検証しました。その結果、再犯予測の判定に黒人が白人よりも不当に危険度が高くなる傾向があったことが指摘されました。再犯予測全般では大きな差はないものの、再犯予測後の2年間で再犯しなかった人物の中で高い再犯評価を受けていたのは、黒人が45%なのに対して白人は23%との結果が出ています。

 要するにこれは、黒人は危険だ、という先入観がなければ導出されない結果ではないかと考えられます。同じように犯罪が起こりそうな地域を予測するソフトもありますが、これを利用した結果、犯罪率の高い地域の住民が警官から不当に扱われていると指摘されたケースもあります。

 この問題の背景にあるのは、我々の生活の重要な部分を、アルゴリズムが判断しているということです。人間の判断には間違いがあるので、偏りをなくそうとしてアルゴリズムを利用したのですが、そもそものアルゴリズムに偏りがあれば、私たちがその偏りを検証するのは非常に困難です。なぜなら、企業はまさに独自のアルゴリズムの販売をビジネスとしており、アルゴリズムを開示するのは企業としては避けようとするからです。

 また技術の急速な発展により、将棋や囲碁を行う人工知能が、どのようなアルゴリズムに基づいて次の一手を打ったのか、開発者でも一部その理由がわからなくなってきています。すると、犯罪や人権に関わるような大きな問題をアルゴリズムが裁き、その理由を人間が理解できない、という社会の到来が想定できます。これら一連の問題は、アルゴリズムの「ブラックボックス化」と呼ばれており、こうした状況が進めば、政府や一部の大企業のアルゴリズムによって人間が統治される「アルゴリズム独裁」が生じるのではないか、という批判も生じています。

アルゴリズムの偏見を防げ

 世界のあらゆるデータ収集・分析の基となるアルゴリズムですが、基本的に人間のエンジニアがプログラムしています。アルゴリズムが偏見をもってしまう背景には、意識的・無意識的にかかわらず、エンジニアの偏見がアルゴリズムに混入されてしまう可能性があります。このような問題を防ぐためには、エンジニアのプログラムに制限や責任を課す必要や、あるいはエンジニアの性別や人種にまで配慮が必要になるといった議論もなされています。技術発展著しいアルゴリズムを前に、人間にも理解できないブラックボックス化が生じているのは先に論じた通りです。

 2016年10月、米ホワイトハウスは「Preparing for the Future of Artificial Intelligence(人工知能の未来に備えて)」と題した報告書を公開しています(リンク先は報告書のPDFです)。人工知能の普及における問題を扱った報告書ですが、アルゴリズムの透明性に関しても指摘しています。そこでは将棋や囲碁の現場で生じはじめているように、複雑すぎて人間では見抜けないアルゴリズムにもし偏見が混入されてしまえば、それは人間の意図を越える結果を導いてしまう可能性が危惧されています

 このような問題に対して、研究者2人がアルゴリズムの偏見を特定するために「AI Now initiative」というニューヨーク大学を拠点とした団体を設立しました。アルゴリズムが世界に大きな影響を与えることを考慮すれば、こうした団体は今後重要なものとなるでしょう。この問題にはグーグルのエンジニアリング担当上級副社長のジョン・ギアナンドレア氏も、不透明なアルゴリズムの問題点を指摘しています(ただし、人工知能が人類を滅ぼすといった内容については否定的な意見です)。

 近年では、企業の人事採用に人工知能を導入する動きがみられます(採用面接支援サービスなども発表されています)。確かにコンピュータを利用する方が、人間によってばらつきのある採用基準よりも公正だ、という意見もあります。現状では書類審査に用いられることが多い人工知能ですが、精度が増していけば人工知能が活躍する領域は増えていくでしょう。しかし、そのアルゴリズムに偏見が紛れていたらどうでしょう。例えば特定の傾向のある人間を人権的に問題があるものであれ排除するようなアルゴリズムであれば、それは人間による採用よりも問題のある結果を招くことになりかねません。ブラックボックス化に対抗するためにも、アルゴリズムの基準や検査制度等について、さらなる議論が求められるでしょう。