Yahoo!ニュース

AIの差別をめぐり“AIのゴッドファーザー”が炎上し、ツイッターをやめる

平和博桜美林大学教授 ジャーナリスト
By Ecole polytechnique (CC BY-SA 2.0)

AIによる差別や偏見は、データが公正なら起きないのか――そんなツイッター上のやり取りをめぐって、“AIのゴッドファーザー”とも呼ばれる第一人者が炎上。ツイッターの離脱宣言をした。

そもそものきっかけは、モザイク化した顔画像を高精細画像に変換できるというAI研究で、「オバマ前大統領の画像から白人の顔ができた」という事例がネットで話題になったことだった。

これについて、「データにバイアス(偏り)があるから」と、“AIのゴッドファーザー”の一人と呼ばれるフェイスブックのチーフAIリサーチャー、ヤン・ルカン氏がツイート

するとAIの差別や偏見の研究で知られるグーグルのリサーチサイエンティスト、ティムニット・ゲブルー氏が「問題をデータに矮小化すべきでない」と、社会の差別構造を含めた問題の根深さを指摘する

さらに国内外のAI研究者や開発者も次々に論争に加わり、AIのバイアス問題から、ルカン氏の議論の手法をめぐる批判へと拡大していく。

2人の議論は物別れに終わる。だが、フェイスブックにとって人種差別問題は、広告ボイコット運動が広がりを見せるなど、まさに批判の渦中におかれているテーマだ。

結局、フェイスブックのAI担当副社長がゲブルー氏への謝罪に乗り出し、ルカン氏は6月末、ツイッターの離脱を宣言する事態となった。

●「データにバイアスがあるから」

データにバイアスがあれば、機械学習のシステムにもバイアスは出る。この顔画像の高精細化システムでは、誰でも白人に見えてしまう。それはこのネットワークがフリッカーフェイスHQで学習しているからだ。このデータセットは主に白人の画像で構成されている。まったく同じシステムをセネガルのデータセットで学習させれば、だれでもアフリカ人に見えるだろう。

フェイスブックのチーフAIリサーチャー、ヤン・ルカン氏は6月21日にそんなツイートをした。

ルカン氏がコメントしているのは、米デューク大学の研究チームが、6月に行われた国際会議「CVPR(コンピュータービジョンとパターン認識)」で発表したAIシステム「PULSE」をめぐるバイアス騒動だ。

アフリカ系のオバマ前大統領や、ヒスパニック系の「AOC」こと民主党下院議員のアレクサンドリア・オカシオコルテス氏らの顔画像が、「PULSE」を使うと白人になってしまう――そんな画像がツイッターで拡散したのだ。

「PULSE」はモザイク化した低解像度の顔画像を、AIのテクノロジー「GAN(敵対的生成ネットワーク)」を使って、最大で64倍の高解像度画像に変換できるというシステム。低解像度の画像から、AIが高解像度の画像を推測し、自動生成するという仕組みだ。

「PULSE」で使われていたのは、半導体メーカー「NVIDIA(エヌビディア)」の研究者らが開発した、架空の顔画像を自動生成できる「StyleGAN」と呼ばれるもの。

「StyleGAN」は、写真共有サイト「フリッカー」から収集した7万枚の顔画像のデータベース「フリッカーフェイスHQ」をもとに、学習をさせていた。

だが、カタール・コンピューティング研究所の研究チームが4月に発表した研究結果によると、この「StyleGAN」を使って自動生成した1万枚の顔画像を調べたところ、白人は72.6%、アジア系13.8%、黒人10.1%、インド系3.4%、と人種の割合にバイアス(偏り)が確認できた、という。

この「StyleGAN」のバイアスが、そのまま「PULSE」でも反映されてしまったということのようだ。

このバイアスのそもそもの原因は、「StyleGAN」の学習用データとして使った「フリッカーフェイスHQ」にバイアスがあったからだ。その大半のデータは白人だった――冒頭のルカン氏のツイートは、そう指摘している。

ルカン氏の指摘は、ここまでは、報道されている通り内容でもある。

だが、最後の一文とともにツイートしたことで、違ったメッセージとして、批判と困惑と、批判に対する批判の応酬の発火点となる。「まったく同じシステムをセネガルのデータセットで学習させれば、だれでもアフリカ人に見えるだろう」

ルカン氏のツイートは7月6日現在200件を超すコメント付きリツート、500件を超すコメントなしリツイート、2,700件を超す「いいね」が寄せられている。

●「矮小化すべきでない」

ヤンへ、私とエミリーのチュートリアルを視聴することをお勧めします。それからこの分野の数多くの専門家たちにも目を向けることを。問題をデータセットのバイアスに矮小化すべきではない。私たちのような疎外されたコミュニティの人間に一度でも耳を傾け、私たちの声を聴いてほしい。世界的に抗議活動が広がっている今でなければ、一体いつ、私たちの声を聴いてくれるのか。

ルカン氏のツイートから1時間43分後、グーグルのエシカルAIチームのリサーチサイエンティスト、ティムニット・ゲブルー氏がツイートでこう反論した

東アフリカ・エチオピア出身のゲブルー氏は、AIバイアスの研究で知られる。

2018年2月に発表した、マサチューセッツ工科大学(MIT)メディアラボのジョイ・ブオラムウィニ氏との共同研究では、マイクロソフト、IBM、さらに中国の顔認識サービス「フェイス++」という、3つのAI顔認識の精度を比較。人種、性別に明確なバイアスが存在し、認識精度の大きな開きがあることを明らかにしている。

研究によれば、3つのサービスの誤認識率は、いずれも男性より女性の方が高く、白い肌より黒い肌の方が高かった。さらに、性別と肌の色の組み合わせでは、いずれも誤認識率が最も高かったのは肌の黒い女性だった。

※参照:AIと「バイアス」:顔認識に高まる批判(09/01/2018 新聞紙学的

また「PULSE」が発表された国際会議「CVPR」では、ゲブルー氏とグーグル・エシカルAIチームの同僚であるエミリー・デントン氏によるAIのバイアスに関する「コンピュータービジョンにおける公正性、説明責任、透明性と倫理」と題した2時間以上にも及ぶチュートリアルが行われて、その動画も公開されている。

米国では2020年5月末、ミネソタ州ミネアポリスで黒人男性、ジョージ・フロイド氏が白人警官の暴行によって死亡。この事件をきっかけに、人種差別撤廃の抗議活動が全米に広がり、そのうねりは世界規模になっている。

特にゲブルー氏らの研究が明らかにしたAI顔認識の人種、性別によるバイアス問題から、IBM、アマゾン、マイクロソフトが相次いで、警察に対する顔認識サービス提供の撤退や見合わせを表明。

※参照:IBM、Amazon、Microsoftが相次ぎ見合わせ、AIによる顔認識の何が問題なのか?(06/10/2020 新聞紙学的

その懸念を裏付けるように、6月下旬にはミシガン州デトロイトで、黒人男性が監視カメラ映像をもとにしたAI顔認識の誤判定によって、窃盗の容疑者として誤認逮捕された事件も明らかになっている。

※「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される(06/25/2020 新聞紙学的

ゲブルー氏が上記のチュートリアルで指摘するのは、バイアスはデータだけでの問題ではなく、深く社会に根差している、という点だ。

データのバイアスは、社会の差別構造が反映される。社会に人種や性別への差別があれば、その差別が統計データに現れる。

だがそれだけでなく、AIの設計、アルゴリズム、実装などの各段階でバイアスが生まれ、強化される可能性がある。そのため、データの公正さに加え、社会構造から組織の多様性まで、重層的な取り組みが求められている。

チュートリアルではゲブルー氏はこう指摘する。

ここで覚えておいてほしいメッセージは、公正さはデータセットだけの問題ではない、ということです。これは計算だけの問題ではない。公正さはまた、社会の問題です。エンジニアとして、サイエンティストとして、私たちはこの事実から目をそらすことはできません。

「データにバイアスがあれば、機械学習のシステムにもバイアスは出る」「まったく同じシステムをセネガルのデータセットで学習させれば、だれでもアフリカ人に見えるだろう」というルカン氏のツイートは、「データセットだけの問題」と矮小化している――それがゲブルー氏の批判だった。

同様の批判は、国内外のAI研究者らからも相次いで沸き起こる。

●ルカン氏の反論と延焼

ルカン氏は、ゲブルー氏の批判に対し、計17本の連続ツイートで反論を展開する。

最初のツイートは「PULSE」の個別ケースについてコメントしたものであること、バイアスが構造的な問題であること、バイアスの影響を最小化するためには様々な取り組みがあること、など。さながらオンライン講義のように、AIのバイアス問題を説明していく。

ルカン氏は、IT業界を横断して、バイアス問題などに取り組むNPO「パートナーシップ・オン・AI」の立ち上げに参画してきた経緯もある。

そして何よりルカン氏は、ユシュア・ベンジオ氏、ジェフリー・ヒントン氏らとともに、現在のニューラルネットワークの理論を確立したことにより、コンピューター分野のノーベル賞ともいわれるチューリング賞を受賞している“AIのゴッドファーザー”の一人。

一方でゲブルー氏は3年前にスタンフォード大学で博士号を取ったばかりの若手だ。

そんな位置関係への視線のようなものが、ルカン氏の連続ツイートの終盤、16本目に滲み出す。

追伸:私たちのような人間は、このような問題点について、実質的な議論をするよう努めるべきだ。感情的にならず、理性的なマナーで。それは時には難しいことだ。だが、だからこそ私たちは自らをサイエンティストと呼ぶことができる。

このツイートが延焼を呼ぶ。

「感情的にならず、理性的なマナーで」との指摘が、論点ではなく、相手の議論の態度を問題視する「トーンポリシング(口調警察)」ではないか、との批判だ。

これをきっかけに、ルカン氏に対する批判の論点は広がり、その批判に対する「社会正義」批判も激しさを増す。

ルカン氏の連続ツイートを受けて、ゲブルー氏はこう書き記す

精神衛生のため、もうあなたと関わり合いになることはやめます。時間の無駄だから。あなたが主導しているフェイスブックやフェイスブックAIになにがしかの公正さ、倫理があるというのなら、その信頼性は微々たるものだと申し上げておく。何よりそのことを最大級のメガホンとして触れ回っているのが、あなた自身なのだから。

●副社長の謝罪

その3日後の6月25日、フェイスブックのAI担当副社長、ジェローム・ペゼンティ氏が、ゲブルー氏への謝罪のツイートを書き込む。

今回の事態がこのようにエスカレートしてしまったことに、個人として謝罪したいと思います。我々フェイスブックAIは、あなたの草分け的な業績、そしてAIにおけるバイアスと人種の問題に取り組んできたAIコミュニティの業績を高く評価しています。今回の議論で、我々がこのような形で取り上げられるのは、本意ではありません。

フェイスブックはすでに、人種差別問題で批判の矢面に立たされていた。

フェイスブックへの批判の高まりの端緒となったのは、トランプ大統領による、5月29日の投稿の扱いだ。

※参照:SNS対権力:フェイスブックとツイッターの判断はなぜ分かれるのか?(06/04/2020 新聞紙学的

ジョージ・フロイド氏の死亡をきっかけとした抗議活動の広がりの中で、トランプ大統領は5月29日、「ごろつき」という言葉とともに「略奪が始まれば、銃撃が始まる」とツイート

この投稿に対して、ツイッターは「暴力を賛美している」と判断し、タイムライン上は非表示とする措置をとる。

一方でフェイスブックCEOのザッカーバーグ氏は、「フェイスブックは真実の裁定者になるべきではない」との立場を堅持し、トランプ氏の同じ文面の投稿をそのまま掲載。この対応について社内外からの批判が集中している状況だった。

この問題はその後も拡大し続け、大手ブランドが相次いで広告ボイコットに名を連ねる事態となっている。

※参照:スターバックス、ユニリーバ、コカ・コーラが相次ぎ広告ボイコット…Facebookに何が起きている?(06/29/2020 新聞紙学的

今回のAIバイアスをめぐるルカン氏とゲブルー氏の騒動は、その批判の渦の中心に、直接かかわるテーマだった。

●ルカン氏の「長い投稿」

ルカン氏は、ペゼンティ氏が謝罪ツイートをしたさらに3日後の6月28日、ツイッターからの離脱宣言をする。

対立は、口論でもそれ以外の形でも、人を傷つける非生産的なものだ。私はすべての差別に反対する。フェイスブックに、私の価値観と信念についての長い投稿をした。これがツイッターでの、実質的に最後の投稿になるだろう。さようならみなさん。

そのフェイスブックの「長い投稿」では、AIのバイアスの構造について改めて論じた上で、最後にこう述べている。

最後に、私は誤解、無知、非合理、怒り、愚かしさを理由に、人を非難したりはしない。学習と知能をテーマに取り組む教育者として、サイエンティストとして、研究者として、人はその振る舞いを学び、変えることができると信じている。私はそのための手助けをしたい。

この騒動のやり取りは多岐にわたり、テックメディア「ベンチャービート」の記事のほか、様々なまとめ公開されている。

AIのバイアス問題が、政治状況のただなかにあることがわかる。

(※2020年7月6日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事