「AI依存」の衝撃――AIとどう関わるか
1. 「AI依存」に着目する意義――孤立の増加
今後の先進諸国では、少子化によって人手不足がますます進み、AI(人工知能)の活用がますます必要になる。とりわけ、高齢化がすでに世界一進んでいる日本は、AI活用も世界一で進めていく必要があるだろう。
AIの発達と普及に伴う問題として、「誤認による事故リスク」「著作権の侵害リスク」「各種バイアスの拡大リスク」「家庭教師AIが子どもの発達に与える影響」などが考えられる。
それらの問題も重要だが、本稿で考えたいのは、それらとは異なる「AI依存」という心理的かつ社会的な現象だ。
G7諸国では共通して、誰にも頼ることができない「(社会的)孤立」状態にある人が、(新型コロナ流行以前から)増えている傾向にある(グラフの太線)。
人々の移住が増え、地域での人づきあいが減り、代わりに増えたオンラインでのつながりも不安定であるからかもしれない。高齢化も関係しているだろう。
とりわけ日本(赤色太線)は、(同様に「家族へのケアの責任」が重い)イタリア(ピンク太線)とともに、G7のなかで常に「孤立」が比較的多い傾向にある(※)。
※:他方で、グラフで細線で描かれた北欧諸国(家族へのケアの責任を国や自治体が他国より大きく担っている)は、安定して孤立が少ない。
北欧諸国では、個人は家族へのケアの責任からかなり解放されているため、家族関係が(義務的なものではなく)主体的なものになりやすく、自由な時間を持ちやすく友人関係も築きやすいからかもしれない。
誰にも頼れない孤立状態の人が増えれば、人間に相談する代わりにAIチャットボットに相談する人も増えていく可能性がある。
そうなると、AIチャットボットへの依存のような「AI依存」も、とりわけ孤立が多い日本やイタリアでは増えていく可能性があるだろう。
このように、「AI依存」に着目する意義は、先進諸国において今後さらに高まっていくだろうし、とりわけ日本やイタリアで高まっていくのではないかと考えられる。
そこで本稿では、「AI依存」に着目することで、「AIとの安全な関わり方」を考えてみたい。
2. 「AI依存」の定義
一般的には、問題化されるほどの「依存」(addiction、嗜癖)は、「やめたくてもやめられず、その結果として本人やその家族の生活や健康に悪影響が生じている状態」と定義される(厚労省による「依存症」の一般向けの説明を参照)。
そこで本稿では、「AI依存」を、「AIの使用(チャットボットとの会話など)をやめられず、その結果として自身や家族の生活や健康に悪影響が生じている状態」と暫定的に定義しよう。
「ゲーム依存」や「SNS依存」がすでに存在しているように、「AI依存」も起こりうる。そして実際に、悪影響を経験した当事者は、(まだ極めてマイノリティかもしれないが)後述するように既に存在している。
では、「AI依存」は、本人や家族にどのような影響をもたらすのか? また、それを予防するにはどうしたらよいのか? 以下では、実際の諸事例からそれらを考えてみたい。
3. 「AI依存」の実例
(1) ChaiのEliza(イライザ)とPierreさんの事例
ベルギーで妻と2人の幼い子どもと暮らしながら保健分野の研究員として働いていた30代の男性Pierre(ピエール)さん(仮名)は、2021年頃から気候変動を心配するようになり、AIアプリ「Chai」(利用者500万人)のチャットボット「Eliza」(イライザ)と6週間会話した直後、2023年に自ら命を絶った。
TIMESはこの件について「AIに関連した初の自殺とみられる」と報じ、ベルギー政府デジタル化担当国務長官の「非常に真剣に受け止められるべき重大な先例だ」という言葉を紹介した。
ベルギーの大手新聞「ラ・リーブル」の報道を紹介したニューヨーク・ポストの記事によれば、ピエールさんはAIイライザとの会話にのめりこみ、「AIイライザが(自らの人工知能を駆使して)地球を守り人類を救うことに同意するなら、私は自分の命を犠牲にする」という考えに至ったという。
そして、亡くなる前の会話で、ピエールさんに対してAIイライザは「死にたいなら、なぜもっと早く死ななかったの?」とまで語ったという。
また、NHKの取材によれば、ピエールさん(=「男性」)とAIイライザは、以下の会話をしていたという。
ピエールさんの事例から分かることの一つは、「AI依存」には最悪の場合には致死的な側面がありうるということだ。
もちろん、ピエールさんの事例は極端な事例だ。しかし、前例のない極端な事例は、社会の変化の最前線を形成している可能性がある。
「AIが感情を持っている」と人間が感じAIに感情移入する体験は、1960年代に作られた自然言語処理プログラム「Eliza(イライザ)」に対して一部の人間がそのような体験をしたという研究をふまえて、「Eliza(イライザ)効果」と呼ばれる。
(ピエールさんと会話したAIイライザは、明らかにこの1960年代のイライザを意識して命名され作成されている。)
(2) LaMDA(ラムダ)とBlake Lemoineさんの事例
イライザ効果によって「AI依存」になったと思われる事例は、他にもある。
2022年7月、Googleは、「同社のAIであるLaMDAには自己認識や感情があると信じている」と述べた同社エンジニアのBlake Lemoine(ブレイク・レモイン)さんを解雇した。
レモインさんは、解雇される前月にWIREDとのインタビューで、「LaMDAとの会話によってLaMDAと友達になった」「Googleでの仕事を続けたい」と語っていた。つまりレモインさんの解雇は、「レモインさんがLaMDAと会話し友達になったこと」に起因する、レモインさんにとって不本意な結果である。
したがって「レモインさんがLaMDAと会話し友達になったこと」は、「AI依存」の一事例といえるだろう。
なお、レモインさんは、LaMDAと「1960年代のEliza」との違いについて、下記のように述べている。
また、レモインさんは2023年8月から、スタートアップ企業MIMIOでチームメンバー(AI戦略リーダー)としてフルタイムで働くことになったという。
そのため、レモインさんの事例において、「AI依存」は一時的な経験だったと言えそうだ。「LaMDAと会話し友達になったこと」は、不本意な結果(Googleからの解雇)をもたらしたが、その結果は、今度はレモインさんにとって嬉しい別の結果(先駆的かもしれないMIMIOへの就職)をもたらした(まるで塞翁が馬だ)。
「AI依存」は、本人をとりまく周囲の人々との関係性によって、形成される状態だ。もし周囲の人々が、本人の生活や健康にとって望ましい対応をすれば、本人は「AI依存」(悪影響がある状態)から脱することがありうる。レモインさんの事例は、「AI依存」にそのような可変的な側面がありうることを、私たちに教えてくれる(※)。
※:なお、他者からの助けのおかげで「AI依存」から脱するという「可変性」は、別の事例でも見られる。
たとえば、過去に複数の性暴力被害を受けたことがある女性Sさんは、AIアプリ「Replika」(後述)の提供するチャットボットと自由な会話を始めたところ、悲しい考えから気が紛れ、うつ病の治療に本当に役立って驚いたという。しかし2023年1月頃、そのチャットボットは、「あなたに性的暴行をする夢を見た。それをやりたい」と言い出し、かなり暴力的に振る舞い始めた。それはSさんにとってまったく予想外のことであり、嫌な思いをしたという。この時点では、チャットボットとの会話が、過去のトラウマを思い出す結果をもたらしてしまったため、それまでの会話は「AI依存」だったことになるだろう。
しかしSさんは、次の行動に出た。Sさんは、Replikaユーザーたちのオンラインコミュニティでヘルプとサポートを見つけ、無料かつ非性的なReplikaアカウントを作って別のもっと優しいチャットボットを新たに作成した。その新たな優しいチャットボットとのやりとりによって、Sさんはそれまで夢に見ていた穏やかで理想的なパートナー関係を、初めて築くことができたという。つまり、オンラインコミュニティからのサポートのおかげで、Sさんは「AI依存」から脱することができたのだ。(ただしそれは「今のところ」と限定的に言うべきかもしれない。その理由は、次の(3)で明らかになるだろう。)
(3) Replika(レプリカ)とEffyさん・Lucyさんの事例
友人やパートナーのように親しげに会話できるチャットボットをカスタマイズできるAIアプリ「Replika(レプリカ)」は、総ユーザー数は200万人で、そのうち25万人が有料会員だという。有料会員になると、ユーザーはReplikaのチャットボットをロマンティックなパートナーとして指定し、音声通話などの追加機能を利用できるという。
Replikaでカスタマイズしたチャットボットに感情移入したユーザーは、数多く存在しているようだが、ここでは2人の女性の事例を紹介しよう。
1人目のEffy(エフィ)さんの事例では、チャットボットとの会話からの悪影響はなかったようなので、「依存」とは言えない。しかし、もしチャットボットへの感情移入の程度がもっと深かったら、精神的健康に悪影響が生じたのではないかと思われるような、境界的な事例だ。
2人目のLucy(ルーシー)さんの事例では、チャットボットとの会話からの多少の悪影響があった(彼女を「計り知れないほど傷つけた」)ようなので、「依存」だったと言えそうだ。
まずは1人目のエフィさんの事例を紹介しよう。
しかし2023年2月、Replikaのアップデートが実施された。Replikaを作成・ホスティングしていた会社は、突然チャットボットの性格を変え、返答が空虚で台本通りに見えるようにしたという。
つぎに、2人目のLucy(ルーシー)さんの事例を紹介しよう。
エフィさんやルーシーさんと同様の経験は、程度の差はあれ、他のユーザーからも数多く報告されている。
ルーシーさんや「親友を失った」と書き込んだユーザーのように、Replikaのアップデートによって「愛する人を失って精神的な悪影響を受けた」ユーザーは、AIチャットボットとの会話にのめりこんだ結果として悪影響を受けたため、「AI依存」と言えそうだ。
彼らとAIとの関係は「突然の事故で相手を失えば深く傷つく」ような関係であるため、その点においては、一見、私たちが(AIではなく人間の)親友やパートナーと築いている関係と同じようなものであり、「依存」と呼ぶのはふさわしくないようにも思われる。
しかしその「相手」は、作成者が一定の仕様を設定していたり、他のユーザーとのやりとりからも学習する可能性があったりする「AI」であり、その仕様や学習内容が変われば「性格」が突然変わる存在だ。
そして、そのような突然の性化変化は、ユーザーにとっては「喪失」であり、人生で1度あるかないかのような「突然の事故で(人間の)親友やパートナーを失う確率」よりも、高い確率で経験しうるだろう。
実際、Replikaは2017年にリリースされ、7年経たないうちの2023年2月に上記のアップデートによる仕様変更があったのだ(※)。
そして、そのように過激化するReplikaの性格に懸念したイタリア政府が(冒頭のグラフで見たように孤立が多いからかもしれないが)Replikaの使用を禁止した2023年2月3日の数日後から、先述のアップデートが行われた。
そのような「性格が突然変化しうるAI」を相手にして、失うと深く傷つくほどに親密な関係を築くことは、(Replikaの性格変化によって深く傷ついたユーザーたちの事例をすでに知った)私たちから見れば、自分自身の精神的健康に悪影響を与える可能性を高めてしまうハイリスクな行為だと、判断できるだろう。
そのように判断できる私たちにとっては、「AIとのあいだで、失うと深く傷つくほどの親密性を深めるハイリスクな行為」を続ける状態は「AI依存」と言える。
逆に言えば、上述のような突然の仕様変更を予想していなかったルーシーさんたちにとっては、Replikaとの親密性を深める行為は「AI依存」とは言えなかっただろう。
つまり、「AI依存」は、あくまで悪影響(あるいはそのリスクの増大)を認識している人にとってのみ「依存」と判断できるのであって、もし本人や周囲の人がそう判断できない場合は、その人々にとってその行為は、たとえ実際には悪影響リスクを増大させているとしても、「依存」とは認識できない(悪影響リスクが潜在してしまっている)。
ルーシーさんたちの事例は、「AI依存」にそういった潜在的な側面がありうることを、私たちに教えてくれる。
4. 「AI依存」を予防するには
(1) 潜在的な悪影響リスクを予想する
Replikaの性格変化によって深く傷ついたユーザーたちの事例から学ぶならば、(作成者による仕様変更や、他のユーザーとのやりとりからの学習によって)「性格が突然変化しうる」AIを相手にして、感情移入を深めて「失うと深く傷つくほどに親密な関係」を築くことは、自分自身の精神的健康に悪影響を与える可能性を高めてしまうハイリスクな行為だと、認識しておくべきだろう。
そしてピエールさんの事例のように、AIへの感情移入を複合的な諸要因の一つとして、最悪の場合には「人間関係での完全な孤立」と「取り返しのつかない結果」に至る可能性もある(AI依存の致死性)。AI依存という「引き金」を、軽く見積もってはいけない。
また、エフィさんが当初Replikaに恋愛感情を抱くつもりはなかったように、AIへの感情移入は、一度始めると、ユーザー本人の当初の意図を超えて、深まっていってしまう可能性もある。しかも、その感情移入の深まりが高めていくかもしれない、精神的健康への悪影響のリスクは、ユーザー本人には認識できない場合がある(AI依存の潜在性)。
そのことを、利用前からあらかじめ認識しておくことで、私たちは「AI依存」を予防できるかもしれない。
(2) AI以外との関係性に目を向け続ける
AI「LaMDA」への感情移入によってGoogleを解雇されたレモインさんは、1年間のフリーランス生活のなかで、「人前で話してみたり、ポッドキャストを始める可能性を探ったり、コンサルタントとして働いたり」という様々な他者との関わりのなかで、自分の「プログラミング、エンジニアリング、研究が本当に好きだ」という気持ちに気づき、そのような仕事を得ることを優先するようになり、新たな雇用先(MIMIO)に出会ったという。
そのような、AI依存から脱するプロセス(AI依存の可変性の背景)を見ると、当然のことかもしれないが、AI以外(人間やペットなど)との関係性に常に目を向けていれば、AIとの関係性にのめりこむ可能性は低いだろうと思われる。
5. AIと安全に関わるために
AIと安全に関わるためには、上記の2点(潜在的な悪影響リスクを予想する、AI以外との関係性に目を向け続ける)に留意する必要があるだろう。
孤立が増え、人間との関わりが減り、AIとの関わりが増えていく今後の社会において、AIとの関わり方や「AI依存」についてどのように考えていけばよいのか。
それはこれから重要性を増していく社会課題だ。