「AIによる採用面接は違法」人権団体が訴えたそのわけは
「AIによる採用面接は違法」。米人権団体がそう訴え、サービスの差し止めなどを求める申し立てを行った――。
AIを使った面接システムによる人材採用が広がる。だが、カメラの向こうのAIが人間の何を見ているのか、志願者には全くわからない。
そんな中で、米人権団体「電子プライバシー情報センター(EPIC)」は米連邦取引委員会(FTC)に対し、100万件の面接を実施したという米ベンチャー「ハイアービュー」が連邦取引委員会法などに違反しているとの申し立てを行った。
その一方、学生たちの就活を指導する大学では、「AIに気に入られる面接心得」を掲示するところも出ている。
急速に進むAIによる採用業務の合理化と、「AI面接」のブラックボックス。
懸念の声を受けて、法規制の取り組みも動き出している。
●100社が採用、100万人を面接
AIの利用は採用の場面でもすでに導入が進んでいる。エントリーシートなどの書類審査を人間に代わってAIが行うのに加えて、面接の場面でもネット越しの「AI面接官」が広がる。
米ベンチャー「ハイアービュー」は、志願者のオンラインでの面接をAIで分析、「採用適性スコア」をはじき出すサービスを提供している。
30分間の面接で、表情、抑揚、語彙やイントネーションなどを含む50万のデータポイントをAIが判定するという。
「ハイアービュー」が掲げるのが、面接にかかる時間の短縮と、人間の面接官が抱えるバイアスの排除だ。
ワシントン・ポストによると、すでにヒルトンやユニリーバなど100社が採用、100万人の志願者が同社のAI面接を受けているという。
●「AI面接」の問題点
この「ハイアービュー」に対して声を上げたのが、四半世紀にわたってワシントンDCを拠点に活動を続ける老舗のネット人権擁護団体「電子プライバシー情報センター(EPIC)」だ。
EPICは11月6日に、米連邦取引委員会(FTC)に対し、「ハイアービュー」のAI面接が、経済協力開発機構(OECD)のAI原則や、不公正取引や詐欺的行為を禁じた米連邦取引委員会法に違反している、などとして調査開始と差し止め命令を出すよう求めている。
EPICはこう指摘する。
「ハイアービュー」は効果が実証されていないAIシステムを使って人々の顔や声を解析しており、米国の労働者は、大規模な脅威にさらされている。
EPICは申し立ての中で、「ハイアービュー」がAI面接の中で「顔認識」のテクノロジーを使用しているにもかかわらず、その定義を人物特定・追跡などに独自に限定した上で「顔認識テクノロジーは使用していない」と表明していることが、米連邦取引委員会法が禁じる「不公正取引・詐欺的行為」に当たる、としている。
また、EPICは「ハイアービュー」が、OECDのAI原則にも違反する、と指摘する。
EPICが指摘するOECDのAI原則(理事会勧告、2019年5月採択)は、日本政府が2016年のG7香川・高松情報通信大臣会合以来、掲げてきた「人間中心のAI」の原則が反映されており、その採択にも参加している。
AI原則では、「透明性及び説明可能性」として、「AIシステムに関する透明性と責任ある開示に積極的に関与すべきである」と規定。
具体的には、「AIシステムが使われていることをステークホルダーに認識してもらうこと」「AIシステムに影響される者がそれから生じた結果を理解できるようにすること」「AIシステムから悪影響を受けた者がそれによって生じた結果に対して、その要因に関する明快かつ分かりやすい情報、並びに予測、推薦又は意思決定のベースとして働いたロジックに基づいて、反論することができるようにすること」を求めている。
だが、EPICは申し立ての中で、「ハイアービュー」はこれらの要求を満たしておらず、AI原則に違反している、と指摘する。
●AIによる差別とは
AIは、膨大な過去のデータを学習することで、予測判定のアルゴリズムを組み立てる。
だが、過去のデータには社会に蔓延した差別や偏見が目に見えない形で織り込まれている。
このため、それらのデータに基づいたAIの判断基準が、社会の差別や偏見を反映したものになってしまう危険性がつきまとう。
特に採用に関しては、ロイターが2018年10月、アマゾン進めてきたAIを活用した人材採用システム開発が、女性を差別的に扱ってしまう、という欠陥を修正できず、中止に追い込まれた、と報じている。
また、AIによる顔認識には、差別につながる判定のゆがみがある、との研究結果も明らかにされている。
※参照:AIと「バイアス」:顔認識に高まる批判(09/01/2018 新聞紙学的)
人権擁護団体「米自由人権協会(ACLU)」は2018年7月、アマゾンの顔認識AI「レコグニション」が、28人の連邦議会議員を逮捕歴のある人物として誤認識した、という調査結果を公表した。
誤認識された議員のうち、黒人などの有色人種の割合は、議会の構成比の倍の割合だった、という。
さらに、マサチューセッツ工科大学メディアラボのジョイ・ブオラムウィニ氏らの研究によると、顔認識のシステムでは、有色人種や女性の誤認識率が高いことが判明したという。
AIによる顔認識のバイアスは、笑顔の識別にも現れる。そしてそれは、就職活動におけるAI面接にも影響を与える可能性がある。
ウェイクフォレスト大学助教、ローレン・ルー氏は2018年12月、AIを使った表情と感情の分析で、白人と黒人に違いがあるとの研究結果を公開した。
ルー氏は米バスケットボール協会(NBA)の選手400人の、笑顔の公式顔写真を使用。顔写真から表情と感情を分析するAIサービスで、白人選手と黒人選手の比較。
黒人の方が、白人に比べて「怒り」などのネガティブな感情として分析される傾向が高いことを明らかにした。
AI面接では、受け答えとともに、その表情なども読み取る。そして、黒人は白人に比べて不機嫌と判定される傾向にあるという。その上でルー氏はこう指摘する。「顔認識が黒人と白人を同等に評価するようになるまでは、黒人はポジティブな表情をことさら強調する必要があるかもしれない」
●顔認識を取り巻く懸念と規制
AI採用に対する懸念から、規制の動きも出てきた。
イリノイ州では、志願者への告知を義務付けた「AI動画面接規制法」が成立。2020年1月から施行される予定だ。
同法によれば、AI面接を行う場合には、志願者に事前に告知し、同意を得ることが必要になる。また、志願者の要求によって30日以内のデータ破棄などが義務付けられている。
AIによる顔認識テクノロジーは、採用に限らず、プライバシー侵害や監視にもつながる。このために、各地で規制の動きも高まっている。
サンフランシスコでは2019年5月、警察などが公共スペースで顔認識テクノロジーを使用することを禁止。サンフランシスコ湾対岸のオークランドも7月、同じく禁止を可決。隣のバークレーも10月、同様に顔認識の使用を禁止した。
また、マサチューセッツ州ソマービルでも6月、やはり顔認識の使用禁止を決めている。
●逆チューリングテスト
ただ、一方ではAI面接に対応した就活アドバイスを行う大学もある、という。
メリーランド大学では、AI面接について、学生にこうアドバイスする。
ロボットはすでにある成功事例とあなたを比較する;つまり、規格外の志願者を求めてはいないのだ。AIインタビューという立て付けであることを意識しながら、自分の独自性をアピールする。それを肝に銘じておくように。
これに類するアドバイスは、デューク大学などでも行っている。
「AIを察せよ」ということだ。
AIの急速な社会実装に、社会常識や規範、規制が追い付かない。
会話によって相手が人か機械かを見極める「チューリングテスト」。それを逆にしてまな板にのせられる「逆チューリングテスト」。
その居心地の悪さもまた、急速に共有され、可視化されているようだ。
(※2019年11月20日付「新聞紙学的」より加筆・修正のうえ転載)