AIが差別する? セクハラする? 人とAIとの共生のために知らなくてはいけない3種のリスク
技術と人の共生を、社会全体で考える
近年、AIリスクが実際に問題化したケースとして、佐久間さんは次のような事例を挙げる。 「生成AIがつくった10枚ほどの弁護士の画像が、すべて白人系の男性と思われる画像だったケースがあるのですが、これは映像作品などの偏りあるイメージをAIが学習して、そのまま出力してしまったために生じた事態です。このような事例は、現実のバイアスを強化してしまうことにつながります。ほかにもAIチャットが自殺を誘導するような回答をしていたり、未成年の女性に性的な発言をしていた問題もありました」 今後、私たちにはこうしたリスクへの対応をはじめ、AIと共生する社会の仕組みづくりが求められるが、その時にどのような価値観を大切にしていけばいいのだろうか。 「内閣府が2019年に策定した『人間中心のAI社会原則』は、AIとの共生社会を考える手がかりになると思います。AIは人の幸せを追求するための技術だという『人間中心の原則』や、『教育・リテラシーの原則』『公平性、説明責任及び透明性の原則』など7項目で示された価値観は、今後も大きく揺らぐものではありません。ただ、そこで定まっているのは、あくまで『なにを目指すべきか』まで。現実に問題が生じた今、『どうやって実現していくのか』という部分が社会に問われています」 2023年7月に始まったハリウッド俳優のストライキも、そうした問いを世の中に投げかけた一例といえるだろう。彼らが所属する組合では、AIが俳優の演技をデジタルデータとして利用する際の肖像権の扱いなどについて、ガイドラインの明確化を求めている。 「新しい技術が浸透していく過程で、人とテクノロジーの関係性についての課題は必ず生じるものですが、AIに関しては社会全体の知見もルールづくりも不十分なまま、急速に技術が普及してしまっている。社会におけるAIのあり方について、あらゆるステークホルダーが一体になって語り合うべき段階に、すでに入っているのではないでしょうか」