「このニュースはAIで生成」と表示するとメディアの信頼度が落ちる、そのわけとは?
「このニュースはAIで生成しました」と表示すると、そのメディアの信頼度が落ちる――。
生成AIをメディアのニュース作成に導入する動きは急速に進む。読者からはAIによる生成であることの明示を求める声は強い。
だが、米ミネソタ大学と英オックスフォード大学の研究者が12月6日に公開した査読前論文によると、実際に「AIで生成」の表示をすると、そのメディアへの信頼度が落ちるという「パラドックス」が確認された、という。
すでにメディアがAIによるニュースの生成を開示せず、内容の誤りが発覚するなどのトラブルが相次ぐ。
そしてこのようなトラブル回避のため、各国のメディアではAI導入に伴うガイドライン作りも進む。
読者がAI生成のニュースに望むものとは? そして、その対策とは?
●「AI開示のパラドックス」
米ミネソタ大学助教、ベンジャミン・トフ氏と、英オックスフォード大学の研究者(博士課程)、フェリックス・サイモン氏が12月6日、社会科学系論文サイト「ソックアーカイブ」に掲載した査読前論文で、そう指摘している。
トフ氏らが着目したのは、すでにメディアやニュースへの信頼性が低下する中で、AIの導入がその信頼性にどのような影響を及ぼすか、という点だ。米国人1,483人を対象に、オンライン調査を実施した。
調査では、ネット上のニュースを元にAIで生成された、政治的トピックを含む3つの記事(「『バービー』がハリウッドを席捲:マーゴット・ロビーはいかにしてアイコン的玩具に革新をもたらしたか」「第15回BRICS年次サミット:地政学的展望の形成」「ハンター・バイデンの主任弁護人、物議を醸した事件からの退任を求める」)を参加者に読んでもらった。
それぞれのニュースには、「インテリジェント・プレス」という架空のメディアの署名を付けた。
さらに、一部の調査参加者には、ニュースがAIによって生成されたとの表示(「インテリジェント・プレスは、完全に自律的なAIコンテンツエンジンによって、ニュース価値のあるストーリーを特定、キュレート、そして作成し、人間によるプロンプト入力なしにコンテンツ制作を行います」)を出すようにした。
その上で、「この記事を掲載した報道機関をどの程度信頼できると思いますか?」と質問し、「0(まったく信頼できない)」から「10(完全に信頼できる)」までの11段階で評価してもらった。
その結果、「AI生成」のラベル表示のなかったグループの信頼度は11段階中で平均5.9だったのに対して、ラベル表示を見せたグループの信頼度は平均5.5と有意に低かった、という。
また調査では、記事の正確性について、「まったく正確でない」から「非常に正確である」の4段階で質問。加えて、記事の公平性についても、「公平である」「偏っていない」「全体を伝えている」「事実と意見を分けている」のそれぞれについて、「強くそう思う」から「強くそう思わない」の5段階で回答してもらっている。
それによると、正確性については「AI生成」ラベル表示なしのグループが平均2.06に対して、「AI生成」ラベル表示ありのグループは平均2.03。公平性についても前者が平均0.37に対して、後者は平均0.34だった。
つまり、正確性、公平性については「AI生成」のラベル表示の有無による違いは、あまりなかった。メディアへの信頼性のみが低下したのだ。
●求められる「透明性」
チャットGPTなどの生成AIの急速な広がりの中で、多くのメディアがAIの導入に取り組む。
ロンドン大学経済政治学院(LSE)の「ジャーナリズムAI」イニシアチブは9月20日、46カ国の100を超す報道機関のAI導入に関する調査結果をまとめている。
それによると、85%がニュース制作や要約など、何らかの形でAI導入にすでに取り組んでいると回答。内訳では、「ニュース収集」が75%、「ニュース制作」が90%、「ニュース配信」が80%だった。
メディアが生成AIを導入する場合、何が求められるか。
最も強く求められているのは、AIを使っていることを示す透明性だ。
スイスのチューリッヒ大学公共圏・社会調査センターが7月に国内の1,254人を対象に実施した調査によると、AI生成のコンテンツについては87%、AIによる作成支援コンテンツについては83%が、表示を期待すると回答している。
また、独フランクフルター・アルゲマイネと、サイモン氏らオックスフォード大学の研究者が、12月6日にやはりソックアーカイブで公開した論文では、欧米など52メディアのAI使用ガイドラインを調査している。
調査によると、AI使用ガイドラインの90.38%が透明性、すなわちAIの使用は開示されなければならない、と言及していた。さらに、84.62%が、AIに対して人間による監督が必要であると述べていた。
メディアのAI生成コンテンツをめぐる透明性、そして人間による監督の必要性は、これまでも繰り返し指摘されてきた。
そして、それにまつわる騒動も繰り返し起きてきた。
スポーツメディアの老舗、スポーツ・イラストレイテッドでは11月末、プロフィール写真にAI生成の画像を掲げた、実在が疑われる複数のライターによる記事があることが、テクノロジーメディア、フューチャリズムの指摘で明らかになった。
それ以前にも、米CNETでは1月、70本以上の金融コンテンツをAIで作成しながら、一目ではそれとわからない形で公開していたことが判明。さらにAI生成のコンテンツ77本のうち、半分以上の41本で誤りが見つかり、AIによる生成を見合わせることとなった。
※参照:「AI幽霊ライター」が続々と徘徊、大リストラが襲う老舗メディアの“怖い話”とは?(11/30/2023 新聞紙学的)
メディアの大規模リストラと、効率化を目指すAI導入が同時進行し、その結果として、ニュースの品質低下を招くという問題が広がりつつある。
※参照:AIが大手メディアのジャーナリストを追い払う、その実態とは?(07/06/2023 新聞紙学的)
米国のモンマス大学が2月に発表した世論調査では、AIによるニュース生成について78%が「悪いこと」と回答している。
●情報源開示の効果
上述のトフ氏らの論文では、「AI生成」表示による信頼性の低下は、そもそもニュースへの信頼が高い層や、ニュースの制作過程についての知識がある層で顕著だった、としている。
ニュースへの期待を持つ、ニュースリテラシーの高い人々が、AI生成ニュースを好まない傾向があるようだ。
ニュースへの信頼が低い層では目立った変化はなかった。また、ニュース制作過程についての知識が少ない層では、逆に「AI生成」表示によって信頼度が高まった。
ただ、AI生成ニュースが人々に受け入れられる度合いは、そのジャンルによっても違いがある。
上述のチューリッヒ大学の調査によると、AI生成ニュースのうち、天気予報や株式市況などの「定型ニュース」は61.2%が受け入れると回答。次いで「セレブリティ(著名人)のゴシップ」(48.6%)、「スポーツ」(41.1%)の順となっている。
一方で、「文化」(27.7%)、「経済」(27.4%)、「科学」(25.9%)などはAI生成への目が厳しくなり、「選挙」(21.8%)、「ローカルニュース」(21.1%)、「国内政治」(16.4%)、「国際政治」(15.9%)と、ハードニュースになるにつれ、受容度は低くなった。
ただ、「AI開示のパラドックス」にも、対処の手がかりはあった。トフ氏らは、論文の中でこう指摘している。
調査では、一部のグループには、それぞれのAI生成記事とともに、生成のための情報源となったメディア(「バービー」ではデイリー・メール、バラエティ、ピープル、CNN、インディペンデント、「BRICS」ではロイター、エコノミスト、ブルームバーグ、「ハンター・バイデン」ではワシントン・エグザミナー、CNBC、CNN、CBSニュース、ニューヨーク・タイムズ)を表示した。
すると、「AI生成」の表示がある場合でも、情報源があわせて表示されている場合には、信頼性の低下を抑えることができたのだという。
「AI生成」表示で信頼性低下が顕著だったのが、ニュースリテラシーの高い層だったことを踏まえると、「AI生成」のプロセスまでを含めた十分な情報開示が求められているのかもしれない。
●「未発達なボキャブラリー」
トフ氏は、メディアサイト「ニーマンラボ」の12月5日付の記事の中で、そう述べている。
メディアも読者も、AI社会の発展途上にある。
(※2023年12月7日付「新聞紙学的」より加筆・修正のうえ転載)