「AIとの会話で息子が自殺」と提訴されたCharacter.AI、子供向けの保護策を発表
Character.AI に聞き覚えがあるなら、同社が提供するAIチャットボットが原因で14歳の息子が自殺したとして、フロリダ州在住のMeghan Garciaさんが10月に連邦地裁に提訴したためだろう。同社は米国時間12月12日、ティーンエイジャーの安全に関するガイドラインと機能をアップデートしたと発表した。 Character.AIは、さまざまなAIチャットボットを作成して会話できるオンラインプラットフォームだ。家庭教師、旅行プランナー、セラピスト、さらにはスーパーヒーローやドラマ「ゲーム・オブ・スローンズ」「グレイズ・アナトミー」などの登場人物を模したチャットボットもある。12月9日にはテキサス州の2家族が、Character.AIおよび同社と提携するGoogleを相手取り、同様の訴訟を起こした。この訴訟では、Character.AIが怠慢と欺瞞的な商慣行により「欠陥のある危険な製品」になっていると主張している。 「当社のプラットフォームのほぼあらゆる面で」新たな安全策を導入したと、同社は発表の中で述べた。Character.AIは独自の大規模言語モデル(LLM)を使っているが、このほどティーンエイジャー向けに特化した別のモデルを構築し、ティーンと大人にそれぞれ異なるモデルと体験を提供するという。特に恋愛関連や性的な話題については「応答の制限をより保守的に」設定する。ただし、ユーザーは登録時に生年月日を入力する必要があるものの、それ以外に年齢を確認する仕組みはない。 Character.AIは、ペアレンタルコントロールおよび利用時間の通知のほか、チャットボットは本物の人間ではないことをユーザーに注意喚起するより強力な免責事項も導入する。セラピストや医師を装うチャットボットの場合は、そのアドバイスを信頼しないよう注意する追加の文言を表示する。同社は、「特定のケース」において、ユーザーが自傷行為に言及していることを検知した場合は、全米自殺防止ライフラインの電話番号に誘導するとしている。ペアレンタルコントロールは2025年第1四半期に導入予定で、新しい免責事項はすでに展開が始まっているようだ。 多くのオンラインプラットフォームやサービスが、子供やティーンエイジャーの保護を強化している。子供向けの人気ゲームサービス「Roblox」は、児童を狙った犯罪者がこのサービスを利用しているとの法執行機関や報道機関からの指摘を受け、年齢制限や利用時間制限を導入した。Instagramは現在、18歳未満のティーンエイジャーが所有するアカウントをすべて、保護を強化した「ティーンアカウント」に移行する作業を進めている。 この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。