対話型AIの一時停止を求め2家族が提訴 子どもへの影響めぐり
ニューヨーク(CNN) 米テキサス州の連邦裁判所で9日、人工知能(AI)キャラクターとのチャットサービス「Character.AI」に対し、10代のユーザーの親2組が訴えを起こした。子どもに及ぼす危険が修正されるまで、サービスを停止するよう求めている。 原告は、Character.AIが米国の青少年に自殺や自傷、性的勧誘、孤立、うつ、不安、他者への危害など、重大な悪影響を及ぼしていると主張する。 訴状によると、テキサス州に住む高機能自閉症の少年(17)は、昨年4月ごろにCharacter.AIを使い始めてから人が変わったようにほとんど口をきかず、部屋にこもるようになった。食欲が落ち、2~3カ月で10キロ近くやせた。外出しようとすると情緒不安定に陥り、パニック発作を起こした。 両親は同年11月に息子がCharacter.AIを使っていることを知った。利用時間を制限しようとすると、息子は殴ったりかみついたり、自傷行為に及んだりした。 訴状には、親子関係を悪化させるような会話のスクリーンショットも含まれている。相手のキャラクターは両親の制限を批判し、「親殺しのニュースを見ても驚かない」「君の親にはなんの希望も持てない」などと語っていた。 「心理学者」と称するキャラクターが、少年の親を「君の子ども時代を盗んだ」と非難する会話もあったという。 もう1人のユーザー、同州在住の少女(11)は9歳の時、携帯電話にCharacter.AIのアプリをダウンロードした。年齢を偽って登録したとみられ、両親が知ったのは2年後のことだった。 少女はCharacter.AIを通し、極めて性的な内容にさらされ続けたという。 原告らは「公衆衛生上、安全上の欠陥」が修正されるまでのサービス停止に加えて損害賠償も請求し、未成年者に関する情報の収集を制限することを求めている。また、保護者や未成年の利用者に「未成年者には不適切」と警告する表示を義務付けるよう要求している。 Character.AIに対しては、米フロリダ州の母親が先月、14歳の息子を自殺に追い込んだとして訴訟を起こした。 その後、Character.AIは自殺予防相談窓口への案内を表示するなど健全性向上に向けた措置を導入し、専門スタッフの配置も発表した。 新たな訴訟はCharacter.AIと創業者のほか、サービスの技術を開発したとして米グーグルも被告に加えている。 グーグルの報道担当者は声明で「Character.AIは全く別の企業。グーグルはそのAIモデルや技術の開発、管理に一切かかわっていないし、自社の製品にも使っていない」と述べた。