ChatGPTで特定の個人名を入力すると会話が終了する事象が確認される
ChatGPTで特定の個人名を入力すると、エラーを返して会話が終了する事象が見つかった。 具体的には、プロンプト内に「Brian Hood」や「Jonathan Turley」など特定の個人名が含まれると、その時点で会話が終了する。XとRedditのユーザーが言及したところによると、会話が終了する名前は調査時点で6名(現在は5名)だという。 ChatGPT refuses to say the name “David Mayer,” and no one knows why. If you try to get it to write the name, the chat immediately ends. People have attempted all sorts of things - ciphers, riddles, tricks - and nothing works. pic.twitter.com/om6lJdMSTp ― Justine Moore (@venturetwins) November 30, 2024 海外メディアArs Technicaの調査によれば、名前を出すことで会話が終了する人物の中には過去にChatGPTをめぐって法的トラブルになったことのある人物が含まれているという。 たとえば先述のBrian Hood氏は2010年代に豪州で企業の不正を告発した人物だが、2023年に当時のChatGPT 3.5がHood氏に関して「贈収賄に絡んで懲役刑を宣告された人物」と誤った説明を生成したことがあった。これによりOpenAIはHood氏から名誉毀損の訴えを起こす可能性があると警告を受けている。 Jonathan Turley氏については、ChatGPTに関して多数の記事を執筆している法学者のことを指しているという見方が強い。こちらも過去にChatGPTがTurley氏について存在しない事実を説明したことがある。 その一方で、当初は会話が終了する特定個人名の1つとして挙げられていた「David Mayer」については、いつの間にかフィルタリングの対象から外れていたという報告がある。 プロンプトに特定個人の名前を含むことで起こる会話の強制終了は、AIモデルに特定個人の名前を言及させないことによって運営会社が法的トラブルを避けるための施策と捉えることができるが、同姓同名の人物が世界に存在する以上、今回指摘されたような形での不便は今後も起こりうるだろう。 なお今回の事象はAPI経由でのやりとりや開発者向けの「OpenAI Playground」では起こらないようだが、記事執筆時点では本件に関してOpenAIから公式の声明は出ていない。
PC Watch,関根 慎一