「AIの恋人」のめりこみ自殺、米14歳の少年 そもそもどんなサービスだったのか
AIの進化が急速に進む中、私たちは「AIキャラクター」と深い対話を行える時代を迎えている。AI技術を駆使して作られたデジタルキャラクターは話し方や性格といった設定情報に基づいて、まるで本物の人格を持っているかのように自然な対話ができる。しかし、この技術が人々の心や行動に悪影響を与えるという課題に直面している。 【画像】少年とAIキャラクターの最後の会話(訴状から引用) 最近、米国で14 歳の少年が自殺した事件が話題になっている。少年の母親は、AIキャラクターとの会話に異常なまでに執着したことで精神状態が悪化し、AI キャラクターとの会話が自殺の引き金となった、と主張している。 少年の母親は、AIキャラクターとの会話への執着が精神状態を悪化させ自殺の引き金となったとし、ユーザーの安全対策を怠ったという理由で、運営元のCharacter Technologiesなどを訴えた。 この訴えにより、若者へのAIキャラクターの利用規制や責任の所在をどう考えるべきかについて、米国社会で議論が活発になっている。
character.aiとは
Character Technologiesが運営する「character.ai」は、AIキャラクターとテキストチャットや音声対話を楽しめるチャットサービスである。character.aiの特徴は、AIキャラクターの外見、性格、話し方などを自分好みにカスタマイズできることにある。 ChatGPTのように、翻訳や文章要約といった一般的な知的タスクの要求に応じるAIチャットボットとは異なり、利用者がAIキャラクターとの対話そのものを楽しめることにフォーカスしている。 米ベンチャーキャピタルのアンドリーセン・ホロウィッツが2024年8月に発表した「Top 100 Gen AI Consumer Apps」シリーズの「生成AIのウェブプロダクトの月間ユニーク訪問数」のランキングでは、character.aiはChatGPTに次ぐ第2位の人気サービスである。そんなチャットサービスを舞台にAIキャラクターと利用者の間に悲劇が起こってしまった。それはなぜなのだろうか。