Yahoo!ニュース

データの時代の功罪を考える―プロファイリングをどう制御すべきか?

上山信一慶應大学名誉教授、経営コンサルタント
出展:ESTONIA TOOL BOX

 「20世紀は石油の時代。21世紀はデータの時代」とよく言われる。これからはデータを制するものがビジネスを制する。だが消費者、あるいは国民にとってどうなのか。今回はデータの時代の功罪を考えたい。

○利便性か監視される生活か

データの活用で日常生活も仕事も便利になる。たとえば高速通信規格5Gを活用すると、本人が望みさえすれば「朝何時にカーテンを開け、どういう濃さのコーヒーを飲むか」など日常生活の行動データを集めて蓄積できる。マシンは蓄積データを基にいつもと同じ時間にカーテンを開け、毎朝同じ濃さのコーヒーを入れてくれる。もちろんエアコンのスイッチを触ったり目覚まし時計をセットしたりといった雑用からも解放される。

生活の細部が企業に知られるのはいやだという意見はある。だがITが浸透するにつれ、機械はたくさんのデータを生み出すようになる。それを蓄積して使わずに暮らすというのは、今後はあたかも電気洗濯機を使わずたらいで洗濯をし続けるような偏屈な生活とみなされるようになるだろう。人間はいつでも楽をしたい。人々は、なし崩し的に企業に個人データを与え、機械を賢くさせて手間のかからない生活を選ぶようになるだろう。

○企業はデータを資産化

上記の例ではデータの価値を享受するのは本人である。だが、機械メーカーやコーヒー豆の提供企業が何万人ものユーザーのデータ(人々がどういう濃さのコーヒーをいつ飲むかなど)を入手できるようになると、消費トレンドが先読みできる。たとえば「最近、女性が在宅で夕方に酸味の強いコーヒーを飲む傾向がある」とデータを通じて察知した企業は、他社に先んじて新しいビジネスを展開できる。

このように「データ」はビジネスにとって資産になる。その典型例が中国アリババ集団の「ジーマクレジット(芝麻信用)」だろう。これは決済アプリ「アリペイ(支付宝)」の機能の一つで、個人の水道代や税金などの支払いデータを収集、分析して信用スコアを算出する。スコアが高いと信用が高い人物とみなされる。スコアは350点~950点の幅があり、650点以上だと”シェアサイクルの保証金が無料”になる。またローンの限度額もスコアで変化する。スコアは住居賃貸やビザ取得でも利用される。

〇「プロファイリング」で個人の行動を探る

さらにAI(人工知能)が個人の過去についての蓄積データを分析すると、未来の行動がある程度予測できる。プロファイリングという推測手法がある。これは個人の行動履歴データを分析する。データは匿名でいい。たとえば「大津市に住む40代喫煙女性」という属性区分にあてはまる人のデータを集めて分析を精密に行う。するとその人たち向けの商品開発や価格付けがやりやすくなる。

プロファイリングではAIが共通属性の集団、セグメントを対象に、そこにおける特徴的な法則を探り当てる。具体的にはSNS(交流サイト)などネット上の媒体の閲覧履歴などを集めて解析する。そこから行動様式(アウトドアスポーツが好きなど)や思想(保守的など)傾向が、ある程度推測がつく。最近は携帯電話の位置情報とソーシャルメディアの普及により、個人の行動特性、趣味、嗜好がより高度に推測できるようになりつつある。

〇プロファイリングと人権問題

しかし、ここから生まれてくるのは、AIが導き出す個人の行動特性や未来予想と自由や人権との対立の問題である。個人のプロファイリングデータはSNSの閲覧履歴からはもちろん、企業がIoT(インターネット・オブ・シングズ)を活用して家電や車など日常の製品経由でどんどん集められていく。これらを束ねて特定個人について分析すると、その人の私生活、好み、思想傾向まで詳細に推測できるようになる。

プロファイリングはこれはあくまで推測だし、固有名詞が特定されない形でのプロファイリングにとどまる場合が多い。しかし企業の本質は利潤追求である。データのプロファイリングによって有望な顧客とそうでない顧客の選別をやり始めるだろう。さらに社内でも人事部がAIを使って社員の行動様式をプロファイリングしする。そして社員の将来価値を早くから見極め、選別していく可能性がある。

顧客や社員のプロファイリングやそれに基づく評価や選別はあくまでAIが人間に提供するひとつの判断材料でしかない。しかし「AIによるデータ解析の結論だ」と告げられると注目を浴び信ぴょう性を帯びやすくなる。プロファイリングは人間には理解不可能なブラックボックスである。アルゴリズムは極めて複雑でなぜそのような意思決定をしたのか、生身の人間には簡単に理解も説明もできない。だが、AIが導き出した結論は、企業の中では合理的根拠をもつ客観データとして尊重されやすい。

かくしてプロファイリングはいつのまにか人間よりも一段上の位置から個々人の価値を評価、格付けする存在となる。そしてプロファイリングがあちこちで使われるようになると、「人間個々人の尊厳を最大に尊重する」という近代社会の基本原理との間で齟齬(そご)を来きたすようになるのではないか。

〇AIによる脳とマインドの間接支配

企業によるプロファイリング情報の利用にはもう一つ懸念がある。企業がターゲット広告を大量に出し、結果的に個人の自由意志や自己決定権をゆがめてしまう侵す、という懸念だ。

プロファイリングが進むと、企業は特定の属性の人たちに繰り返し個別化されたターゲット広告を出すようになる。(たとえば健康食品の広告や記事だ)。それに応じて、中には他の選択肢を探さなくなる人も出てくる。この場合、(あくまで結果的にだが)そのユーザーは広告を通じて企業から間接的に意思を操作されている(あるいは脳やマインドのハイジャック)とみなすべきではないか。

プロファイリングには、さらに「自動化バイアス」問題がある。人々は自動算出の結果や判断を過信する傾向にある。例えばAIによる判断を過信して、裁判の判決が下されるようになる。となるとAIはやはり重要事項の決定に過大な影響を与えてしまう。

〇「バーチャル・スラム」という恐怖

プロファイリングは過去のデータを用いて将来を予測する。だからその人が人生をやり直す権利を奪う可能性もある。今のリアル社会では、アルコール依存症、落第、犯罪などの前歴があっても繰り返しやり直せる。しかしAIは容赦なくデータを食べて過去から未来を推断する。すると永遠にその人は“スティグマ(らく印)”から逃れられなくなる可能性がある。これはAIが社会復帰を阻害するリスクだ。

AIは最悪の場合、「バーチャル・スラム」と言われる人々を生み出す。バーチャル・スラムとは、AIによって「低評価」を受ける人々のことである。人事採用、融資などでは過去の履歴が重視されるので。だからAIが導き出す評価は説得力を持つ。一方、低評価を受けた人には反論の機会が与えられない。それらに対し人間は容易に反論できない。いったん低い評価が定着すると、なぜそのような低い評価になったのかを整理、分析する機会すら与えられず、いったいどうすればその地位から抜け出せるかすらがわからなくなる。

○データ自体のバイアス

プロファイリングの分野では「情報の非対称性」が著しい。消費者は自分の情報がどのようなアルゴリズムで処理されるか、知らされていない。ところが企業側は意図をもって個人データを収集、分析、活用をする。だから両者の関係は対等平等ではない。

さらに深いところでは、プロファイリングで使われるデータ自体がバイアスに満ちている可能性がある。たとえば「全国民の間で○○という傾向が強まっている」といった時に、関東のサンプルデータが他地域より人口比で少ないと仮定しよう。この場合は、「全国民」よりも関東の人たちの声が薄まってしまう。

偏りなくデータを集めるには全国の全年齢層の国民生活データを集積させる必要がある。だがこれを即座に行えるのは国家だけだし、民主主義国家では国家が国民のプライバシーを侵害してまで国民生活データを広く集積することはできない。その結果、企業がバイアスを含むデータを使って行うプロファイリングの結果が社会全体で定着してしまう可能性があるが行われてしまう。

この記事は有料です。
改革プロの発想&仕事術(企業戦略、社会課題、まちづくり)のバックナンバーをお申し込みください。

改革プロの発想&仕事術(企業戦略、社会課題、まちづくり)のバックナンバー 2022年3月

税込214(記事1本)

※すでに購入済みの方はログインしてください。

購入についての注意事項を必ずお読みいただき、同意の上ご購入ください。欧州経済領域(EEA)およびイギリスから購入や閲覧ができませんのでご注意ください。
慶應大学名誉教授、経営コンサルタント

専門は戦略と改革。国交省(旧運輸省)、マッキンゼー(パートナー)を経て米ジョージタウン大学研究教授、慶應大学総合政策学部教授を歴任。平和堂、スターフライヤー等の社外取締役・監査役、北九州市及び京都市顧問を兼務。東京都・大阪府市・愛知県の3都府県顧問や新潟市都市政策研究所長を歴任。著書に『改革力』『大阪維新』『行政評価の時代』等。京大法、米プリンストン大学院修士卒。これまで世界119か国を旅した。大学院大学至善館特命教授。オンラインサロン「街の未来、日本の未来」主宰 https://lounge.dmm.com/detail/1745/。1957年大阪市生まれ。

上山信一の最近の記事