一般市民が「巨大IT企業」を絶えず監視していないとヤバい理由
内田 顔認識技術などを使った警察当局による生体データの収集と利用は、デジタル技術による監視社会化や人権侵害のわかりやすい一例です。 アメリカでは、監視カメラなどを使って多くの顔情報が当局によって収集されており、実際に、それらのデータが特定の人種や宗教を持つ人々に対する不当な監視であったり、AIによる誤認逮捕などの問題につながりました。 こうした動きに対して、市民から「私の顔を返せ」という抗議の声が巻き起こり、アメリカの多くの自治体で、顔認識技術の活用禁止や規制に関する条例が制定されるに至りました。 ――ただ、警察当局による顔認識技術の活用も、「それで治安が良くなるなら......」と受け入れる人もいそうです。また、「ビッグテックによる情報の独占は危険だ!」といわれても、「自分の個人情報を守るよりも、デジタル技術がもたらす便利さや快適さを優先したい」と考える人も少なくないような気がします。 内田 確かに、インターネットの閲覧履歴やネット通販の購入履歴などの膨大な個人情報が「デジタル経済」のシステムの中に蓄積され、そのデータの一部が自分のまったく知らないところで活用されたり売買されていたとしても、それによるネガティブな影響を実感しづらいという人は多いと思います。むしろ、自分が興味のある広告ばかり出てくるのは快適かもしれません。 しかし、数年前、就職情報サイトの『リクナビ』が、個別の学生の内定辞退率を数値化し、本人の承諾なくそれを企業に提供していたという問題があったように、自分の情報が知らないところで、自分に不利な形で活用されている恐れもあります。 逆の言い方をすれば、自分にハッキリとした実害が及ばない限り、何が問題なのかが見えにくい。そんなブラックボックスなのが、この問題の難しさだといえるかもしれません。 しかし、本書でもいくつかの具体例を紹介したように、現実には巨大IT企業の影響力がどんどんと大きくなり、急激に進化するAIの存在が私たちの人権や、民主主義という仕組みそのものを揺るがしかねない脅威にもなりつつある。 テクノロジーの進歩を否定するわけではありませんが、デジタル技術を活用しながら、それと同時に公正で民主的な社会を実現するためには、そのための「ルール」や「透明性」「公開性」の担保が不可欠で、あまりにも急激な技術の進歩に対して、制度面の整備が追いついていないというのが問題だと思います。 ――巨大IT企業への規制や公正なデジタル社会のためのルール作りは各国で進んでいるのでしょうか?