AIに感情を勝手に読み取られる、そのAIをダマす方法とは

怒り、嫌悪などAIによる「感情認識」(emojify.infoより、写真は筆者)

怒りや悲しみなどの感情を、AIが読み取ることができるという――だがそのAIの判定は、どれぐらい正確なのか? そもそも、読み取れるのか?

AIが人の表情などからその感情を判定する「感情認識」テクノロジーへの疑問の声が高まっている。

新型コロナ禍で対面の機会が減る中で、採用面接から教育まで、AIを使った「感情認識」テクノロジーの市場は急拡大し続け、5年後には4兆円市場になるとの予測もある。

だが、「感情認識」の精度について、専門家からは否定的な見解が示されており、その認識に人種的なバイアス(偏り)の危険があるとの研究もある。

このため、人権擁護団体などは法規制が必要と訴えており、顔画像や音声などによる「感情認識」を中止するよう働きかけを強めている。

そんな中で、ケンブリッジ大学の研究者らがAIの感情認識を「ダマす」ゲームを公開。その信頼性に警鐘を鳴らしている。

●AIを「ダマす」ゲーム

あなたは素早く表情を変えることで、六つの別々の感情を抱いているふりをすることができます。そして重要なのは、あなたの心の中では、それら六つの別々の感情が次々と移り変わっているわけではない、ということです。

ケンブリッジ大学研究員で、ソーシャルベンチャー「ダヴテイル・ラボ」共同設立者、アレクサ・ハガティ氏は、ネット上に公開したゲーム「emojify.info」の狙いを、ネットメディア「ヴァージ」のインタビューでそう説明する。

ハガティ氏らが公開したゲームは、3月半ばに公開した。

emojify.infoより(写真は筆者)
emojify.infoより(写真は筆者)

プレイヤーはパソコンのカメラを通じて、人間の基本6感情(怒り・嫌悪・恐怖・喜び・悲しみ・驚き)に対応した顔の表情をつくってみせて、AIによる「感情認識」機能をどれだけダマすことができるか、にチャレンジする。

「喜び」であればニコニコ顔、「悲しみ」であれば涙顔、「怒り」であれば眉間にしわ――ソーシャルメディアの"絵文字"のような、それぞれの感情を表す典型的な表情をつくってみせることで、AIが読み取る感情のパーセンテージを上げていき、六つの感情をクリアする――そんなゲームの遊び方だ。

筆者もゲームを試し、六つの表情で「感情認識」をクリアできたが、もちろん、そのたびに喜んだり、悲しんだりといった感情を変化させたわけではない。すべて、「演じた」表情だ。

だが日常生活の中で、自分の感情を絵文字のような典型的な表情で示す人は、あまり多くはない。人の感情は、対人関係とその場のコンテクストの中で、もっと微妙なニュアンスで現れ、読み取られる。

ハガティ氏らがゲームで問題提起をしたのは、表情と感情が一対一で当然のように結びついているわけではない、という点だ。

だがAIを使った「感情認識」のサービスには、そんな発想が影を落としている。

ハガティ氏は、英ガーディアンのインタビューにこう答えている。

この「感情認識」テクノロジーを開発している人々は、それが感情を読み取っているのだ、と主張します。だが、多くの信頼できる科学的知見は、それは単純化しすぎだと述べている。実際は、そのようには機能していないのだ、と。

●「間違った問いかけ」

テクノロジー企業はおそらく、根本的に間違った問いかけをしているのだろう。人々の顔の動きを分析するだけで、多面的なコンテクストを考慮せずに、その人の内面をたやすく"読み取る"という試みは、コンピューターのアルゴリズムがどれだけ優れていようと、よく言って不十分、最悪の場合、全く妥当性を欠いたものだ。

ノースイースタン大学の心理学教授、リサ・フェルドマン・バレット氏ら5人の専門家によるチームは、米心理学会(APA)からの委託により、顔の表情から感情を推察するという試みをめぐり、1,000件を超す研究を2年がかりで検討し、2019年7月に論文にまとめている。

70ページにのぼる論文の結論として、バレット氏らはこのように指摘し、続けてこう述べている。

これらのテクノロジー開発は、感情の表現と認知を調査するための強力なツールではある。しかし現時点では、このテクノロジーを使って、顔の表情をもとに、その人がどのような感情を抱いているかという結論を導き出すのは時期尚早だ。

バレット氏は、ヴァージのインタビューにこう答えている。

企業は言いたいことを言えるが、データが示していることは明白です。しかめっ面を検知することはできても、それは怒りを検知することとは別なのです。

バレット氏はその理由を、このように説明している。

データによれば、人は平均すると、怒った時にしかめっ面をする割合は30%未満。しかめっ面がすなわち怒りの表現ではなく、数多くの怒りの表現の一つにすぎない、ということです。70%以上の人は、怒った時にしかめっ面はしない。さらに言えば、しばしば怒っていない時にしかめっ面をする、ということです。

AIによる「感情認識」が、このような注目を集めている背景には、市場の急成長ぶりがある。

●「4兆円市場」の広がり

米調査会社「マーケッツアンドマーケッツ」が2021年3月29日に公表した市場調査によれば、「感情検知・認識(EDR)」の世界的な市場規模は、2020年時点では195億ドル(約2兆1,400億円)。

今後、年平均11.6%の成長率を見込み、2026年には371億ドル(約4兆680億円)と倍増するとの予測をしている。

市場拡大の要因として挙げているのが、新型コロナ禍によるリモート化の傾向だ。対面コミュニケーションの機会が減ることで、オンラインでの「感情検出・認識」の需要の高まりを見込む。

「感情認識」のサービスはすでに様々な場面に導入されている。

AIを使ったネット面接システムを提供する米ベンチャー「ハイアービュー」は、ヒルトンやユニリーバなど700社以上が採用。

就職志願者のオンラインでの面接をAIで分析し、「採用適性スコア」をはじき出す。30分間の面接で、表情、抑揚、語彙やイントネーションなどを含む50万のデータポイントをAIが判定するという

ボルボボッシュなどは、車載カメラによるドライバーの画像から、眠気やわき見運転などの状態を検知し、警告を出すシステムの開発を公表。米AIベンチャーの「アフェクティバ」は、ドライバーの「感情認識」をうたう。

「感情認識」は教育現場でも導入されている。

CNNによれば、香港のベンチャー「ファインド・ソリューションAI」は、リモート授業における生徒の感情を把握するソフト「4リトルツリー」を開発。2020年の1年間で香港の学校での採用数は34件から83件へと拡大したという。

●正確性、バイアス、プライバシーへの懸念

市場の急拡大の一方で、「感情認識」には様々な問題点が指摘されてきた。

その代表例が、上述のバレット氏ら専門家が指摘した科学的根拠や精度に関する疑問だ。

さらに、ウェイクフォレスト大学助教、ローレン・ルー氏は2018年12月、AIを使った表情と感情の分析で、白人と黒人に違いがあるとの研究結果を公開している。

研究では、米バスケットボール協会(NBA)の選手400人の、笑顔の公式顔写真を使用。顔写真から表情と感情を分析するAIサービスで、白人選手と黒人選手を比較したところ、黒人の方が、白人に比べて「怒り」などのネガティブな感情として分析される傾向が高いことを明らかにしている。

また2021年2月には、アマゾンが配達ドライバーに対し、上述のような車載AIカメラを使って、わき見運転や疲労状態などをチェックすると報じられ、「常時監視」との批判が起きた。

英人権団体「アーティクル19」は1月末、中国での「感情認識」テクノロジーの広がりをまとめた報告書を公表。サービスを提供している27の企業のデータをもとに、現状を分析している

ガーディアンは、この報告書で取り上げられた企業の一つを取材。同社は、中国全土の300の刑務所や拘置所に6万台の「感情認識」カメラを配備し、24時間体制で収容者を監視している、という。

また、同社はこれに加えて、学校や高齢者施設、ショッピングセンターにも「感情認識」カメラを提供しているという。

「アーティクル19」の報告書は、中国政府、国際社会、サービス提供企業に対して、「感情認識」テクノロジーの開発、販売、移転などの禁止を提言している。

「感情認識」の規制を求める声は、これまでにも上がっていた。

●規制を求める声

もはや「感情認識」テクノロジーを未規制のままで放置しておくことはできない。教育や医療、雇用、刑事裁判などあらゆる領域において、効果の証明されていないこのテクノロジーの使用から身を守るための法規制をする時だ。

南カリフォルニア大学アネンバーグ校教授で、マイクロソフト・リサーチの上級主席研究員、ケイト・クロフォード氏は、2021年4月6日付の学術誌「ネイチャー」への寄稿で、そう訴えている。

クロフォード氏は、「感情認識」に科学的根拠がないとし、FBIや米軍で長年使用されてきたポリグラフ(いわゆる「嘘発見器」)と比較。

ポリグラフが捜査に導入されたのは1920年代だったが、米最高裁が証拠としての信頼性について「科学的コンセンサスはない」とようやく認めたのは、70年以上たった1998年になってからだったという。

クロフォード氏が共同設立者である米研究機関「AIナウ」はすでに2019年12月に公表した報告書の中で、「人々の生活や様々な機会へのアクセスに影響する重要な判断」において、「感情認識」の使用を禁止するよう規制当局に求めている。

規制を求める声は、「感情認識」テクノロジーを開発する当事者からも出ている。

上述の「感情認識」を手がけるベンチャー「アフェクティバ」、そして別の「感情認識」ベンチャー「エンパティカ」の共同設立者であるMITメディアラボ教授のロザリンド・ピカード氏は、MITテクノロジーレビューのインタビューに、これらの使用はオプトインであるべきだ、と述べている。

さらに、ピカード氏はポリグラフも「感情認識」テクノロジーであると指摘。米最高裁判決が出る10年前、1988年に制定され、雇用主にポリグラフの使用を禁じた「従業員ポリグラフ保護法」が規制のモデルになるとしている。

州レベルではすでに規制の動きもある。

イリノイ州では2020年1月に「AI動画インタビュー法」が施行されている。

同法では、採用面接にAIシステムを使用する場合には、応募者にそのことを通知し、評価の際にAIが使う「特性のタイプ」を開示し、応募者の同意を得ることなどを義務付けている。ただ、これに対しては「極めて限定的」との指摘もある

また米人権団体「電子プライバシー情報センター(EPIC)」は2019年11月、米連邦取引委員会(FTC)に対し、「ハイアービュー」のAI面接が、経済協力開発機構(OECD)のAI原則や、不公正取引や詐欺的行為を禁じた米連邦取引委員会法に違反している、などとして調査開始と差し止め命令を出すよう求めている。

※参照:「AIによる採用面接は違法」人権団体が訴えたそのわけは(11/20/2019 新聞紙学的

このような動きに対して「ハイアービュー」は2021年1月12日、AI面接から画像分析の機能を削除する、と発表している。ただ、同社は応募者が応答する音声からも分析をしており、その機能は残るようだ

EPICはさらに2020年12月、コロンビア特別区(DC)の司法長官に、別の申し立ても行っている

EPICが矛先を向けたのは、「AI試験監督」ソフトだ。

新型コロナ禍によって、リモートでの試験実施となった大学などで導入された「AI試験監督」ソフトは、目の動きや顔認識などにより学生の試験不正行為を検知する、とうたわれていた。

EPICは、これらソフトを提供する5社が、「DC消費者保護手続き法(DCPPA)」や連邦取引委員会法に違反しているとして、司法長官に調査を求めている。

音声による「感情認識」に対する批判の動きもある。

アクシオスの報道によれば、デジタル人権団体の「アクセスナウ」は2021年4月2日付で、音楽配信サービス「スポティファイ」のCEO、ダニエル・エク氏に対し、同社が保有する音声から「感情認識」ができるという特許を放棄するよう書簡を送ったという。

「スポティファイ」がこのテクノロジーの特許を取得した、と1月に報じられていた

●「顔認識」から心に踏み込む

新しいテクノロジーのうたい文句と、実際の使われ方や効果との間には、往々にして大きなギャップが存在する。

ポリグラフの事例は、そんなギャップが今に始まった問題でないことを裏付ける。

AIのテクノロジーも、その例外ではなさそうだ。

これまでにも、AIによる「顔認識」をめぐって、バイアス(偏り)やプライバシーの問題が繰り返し指摘されてきている。

※参照:SNSから収集、30億枚の顔データベースが主張する「権利」(03/22/2021 新聞紙学的

※参照:「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される(06/25/2020 新聞紙学的

※参照:IBM、Amazon、Microsoftが相次ぎ見合わせ、AIによる顔認識の何が問題なのか?(06/10/2020 新聞紙学的

※参照:顔認識AIのデータは、街角の監視カメラとSNSから吸い上げられていく(04/21/2019 新聞紙学的

※参照:AIと「バイアス」:顔認識に高まる批判(09/01/2018 新聞紙学的

「感情認識」はさらに進んで、顔や声を手がかりに、人の心に踏み込むことをうたっている。

議論はそう簡単に収まりそうにはない。