Yahoo!ニュース

「チャットGPTに横領犯にされた」名誉毀損訴訟が示すAIリスクとは?

平和博桜美林大学教授 ジャーナリスト
チャットGPTと「名誉毀損」(Bing Image Creatorで筆者作成)

「チャットGPTによって横領犯にされた」。そんな新たな訴訟が注目を集めている。

訴えたのは米ジョージア州のラジオパーソナリティのマーク・ウォルターズ氏。被告はチャットGPTの開発元、オープンAIだ。

ウォルターズ氏は、チャットGPTによって関係のない団体の「財務担当者」として「詐欺と横領に問われている」とされ、名誉を毀損された、と主張している。

生成AIが事実無根の内容をもっともらしく出力する現象は、「幻覚」として知られてきた。

それが、現実社会で無視できないトラブルを引き起こしている。

今回とは別の訴訟では、弁護士が裁判所に提出した準備書面に、チャットGPTが回答した存在しない判決文を引用し、撤回するという騒動も起きている。

「AIリスク」が、社会を揺るがしている。

●「会計責任者の不正流用」

これは、セカンド・アメンドメント(合衆国憲法修正第2条、武器保有権)財団(SAF)の創設者で執行副会長のアラン・ゴッドリーブ氏が、マーク・ウォルターズ氏を相手取って提出した訴状です。ウォルターズ氏は、SAFから資金を詐取、横領したとして告訴されています。訴状によると、同団体の会計責任者であり最高財務責任者を務めていたウォルターズ氏は、承認手続きや返済をせぬまま、資金を個人的な費用に不正流用し、その隠蔽のために財務記録や銀行取引明細書を操作し、SAFの指導部に正確かつ適時の財務報告や情報開示を行わなかった、としています。

米ジョージア州で銃擁護派のラジオ番組のパーソナリティを務めるマーク・ウォルターズ氏は、6月5日にジョージア州グイネット郡の上級裁判所に提出した訴状の中で、チャットGPTのものだという、そんな回答を引用している。

銃擁護を掲げるセカンド・アメンドメント財団の会計責任者として資金を不正流用した――チャットGPTのそんな回答が、すべて虚偽だと、原告のウォルターズ氏は主張する。

ウォルターズ氏は、この財団の役職に就いたことはなく、資金不正流用のトラブルも存在しない、と指摘。チャットGPTの回答は、同氏への誹謗中傷であり、名誉毀損に当たる、としている。

訴状によれば、そもそもの発端は、セカンド・アメンドメント財団が5月3日、銃規制政策をめぐってワシントン州司法長官らを相手取って同州の西部地区連邦地裁に起こした別の訴訟だった。

射撃スポーツサイトのジャーナリストが、チャットGPTにこの訴訟の訴状を要約するよう指示したところ、上述のような回答をしたのだという。原告のウォルターズ氏は、このジャーナリストからの連絡で事態を把握したという。

セカンド・アメンドメント財団の実際の訴状には、ウォルターズ氏の名前は1度も登場していない。

だがチャットGPTは、ウォルターズ氏がセカンド・アメンドメント財団に訴えられているとする架空の訴状の全文を、事件番号までつけて出力したという。

今回のウォルターズ氏の訴状には、チャットGPTによる架空の訴状の文面が、5ページにわたって引用されている。

●「幻覚」の現れ方

チャットGPTなどの生成AIには、事実無根の内容をもっともらしく回答する「幻覚」という現象が起きることが知られている。

生成AIは確率的にもっともらしい文章のつながりを回答するが、それが事実として正確かどうかという検証は行っていない。

だが性能の高度化によって極めて自然で、一見すると説得力のある文章が作成できるため、人間はこの「もっともらしいデタラメ」に、しばしば惑わされてしまう。

チャットGPT開発元のオープンAIも、この「幻覚」のリスクを認めている。

そして「幻覚」は実害も伴う。

グーグルは2月に生成AI「バード」を発表したが、その際のプロモーション動画で、このAIによる間違った回答を紹介していたことが判明し、親会社アルファベットの時価総額は1日で1,000億ドル下落している。

「幻覚」が、ある人物を「犯罪者」として名指しする事例は、これまでにも指摘されてきた。

オーストラリアでは4月初め、オーストラリア準備銀行(RBA)傘下の2社を舞台にした国際汚職事件をめぐり、チャットGPTがこの事件の内部告発者を"贈賄側で有罪判決を受けた人物"と回答したことが明らかになった

同じころ米国では、チャットGPTが、ジョージ・ワシントン大学法科大学院教授について、"学生へのセクハラ行為をワシントン・ポストが報じた"と回答したことがわかっている。

教授はセクハラの事実はないと否定、ワシントン・ポストもそのような報道はなかったと否定している。

※参照:「ChatGPTが私を犯罪者と呼んだ」内部告発者を呆然とさせ、提訴に向かわせたそのわけとは?(04/07/2023 新聞紙学的

生成AIの「幻覚」は、人を傷つけることがあるのだ。

●「幻覚」が法廷に紛れ込む

「幻覚」が法廷に紛れ込んだ事例もある。

ニューヨーク・タイムズの5月27日付の報道によると、舞台となったのは、マンハッタンのニューヨーク州南部地区連邦地裁だ。

旅客機内で配膳カートが膝にぶつかりけがをしたとして、乗客が航空会社に賠償請求をした訴訟で、原告側弁護士が、6件を超す類似訴訟の判決の引用をまとめた10ページの準備書面を提出した。

だが、その類似訴訟のどれ一つとして実在しなかったことが判明したという。

準備書面を担当した原告側弁護士は5月25日の口頭弁論に宣誓供述書を提出し、作成にチャットGPTを使ったことを認め、「信頼できない情報源であることが明らかになった」と述べたという。

弁護士はキャリア30年のベテランで、チャットGPTに「幻覚」があることは知らなかった、という。

●「訴えられるが、難しい」

冒頭のオープンAIに対するウォルターズ氏の提訴を速報したのは法律ニュースサイト「コートハウス・ニュース・サービス」のようだ。

そして、この訴訟についていち早く詳報したのは、カリフォルニア大学ロサンゼルス校(UCLA)教授で、ブロガーとしても知られるユージン・ヴォロック氏だ。

メディアサイト「リーゾン」内の法律ブログ「ヴォロック・コンスピラシー」の6月6日付投稿で、ヴォロック氏は、今回の提訴がこの種のものとしては初めてかもしれない、と疑問符付き見出しで示しながら、こう指摘している。

このような名誉毀損の請求は、原則として法的には可能だと思う。ただ本件については、訴訟の維持は難しくなりそうだ。

オープンAIが本件のチャットGPTによる回答の虚偽性を認識していたか、ウォルターズ氏が具体的な損害を被ったか、という点について、訴状を見る限りそれらの要件は満たしていない、とヴォロック氏は見立てる。だが、こうも述べている。

いずれにせよ、最終的にどうなるのかは気になる。

●AIリスクの行方

日本政府のAI戦略会議は、5月11日の第1回会合で「AIを巡る主な論点」という資料を公開している。

この中の「懸念・リスク」として7つの論点が挙げられている。

このうちの「プライバシーの侵害、犯罪への使用など人権や安心を脅かす行為にどう対処するか?」「誤情報、虚偽情報、偏向情報等が蔓延する問題にどう対応するか?」という論点は、今回の訴訟が提起する問題点でもある。

ヴォロック氏が指摘する通り、訴訟がどうなるのか、行方が気になる。

(※2023年6月12日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事