Yahoo!ニュース

56%が「人間よりいい」、DeepMindの「AIハーバーマス」は分断を軽減できるか?

平和博桜美林大学教授 ジャーナリスト
56%が「人間よりいい」 By Paul Hudson (CC BY 2.0)

56%が「人間よりいい」と回答した――。

ドイツの哲学者の名を冠したAI「ハーバーマス・マシン」が、議論の対立する社会課題に合意可能な取りまとめを示し、それは人間によるものより出来がいい――AI開発会社、グーグル・ディープマインドの研究チームによる、そんな研究結果が10月18日付の学術誌「サイエンス」に掲載された。

英国で5,000人規模の調査を行った結果、「移民」「気候変動」といった議論を呼ぶテーマで、幅広い合意を生み出すことができた、としている。

マサチューセッツ工科大学(MIT)とカーネギーメロン大学の研究チームは9月、陰謀論を信じる人たちに、AIと対話をしてもらうことで、その信念を低減させることができた、とする研究結果を「サイエンス」に掲載している。

コミュニケーションが機能不全を起こす社会で、AIによる「介入」は、どれだけの効果が期待できるのか? その課題とは?

●「より有益で、明確で、偏りがない」

参加者(計5,734人) は、人間の仲介者が書いたものよりも、AI生成の意見を支持し、より有益で、明確で、偏りがないと評価した。討論参加者は、熟議の後に意見を修正することが多く、共通の視点に収束した。

グーグル・ディープマインドのリサーチ・サイエンティスト、マイケル・ヘンリー・テスラ―氏ら同社の研究チームは10月18日付で「サイエンス」に掲載した論文で、研究結果について、そう述べている

ディープマインドは、世界トップ棋士を下した「アルファ碁」の開発や、CEOのデミス・ハサビス氏、ディレクターのジョン・ジャンパー氏の2024年のノーベル化学賞受賞などで知られる。

「サイエンス」論文の中でテスラ―氏らが研究に使ったのは、「ハーバーマス・マシン」と名付けた大規模言語モデル(LLM)だ。同社が開発した700億のパラメータを持つLLM「チンチラ70B」をベースにしたという。

名前の由来となったユルゲン・ハーバーマス氏は、自由で合理的な人々が集まり、理想的な状況で熟議を行えば、優れた議論を通じて合意が生まれる、とする「公共圏」や「コミュニケーション的行為」などについての著作で知られる。

この合意形成の仲介役を、AIすなわち「ハーバーマス・マシン」が担った場合、人間の仲介役と比べて熟議を後押しし、分断を緩和できるのか、というのがテスラ―氏らの主な研究課題だ。

そして実験の結果、「ハーバーマス・マシン」は人間の仲介役よりも合意形成に効果があった、としている。

研究チームが行った実験の1つでは、1グループ6人で75グループを募集(実際の参加者は439人)。各グループの参加者のうち1人が仲介役に指名され、グループ内の意見の取りまとめを行った。合わせて「ハーバーマス・マシン」も同じく取りまとめを行い、人間の仲介役と「ハーバーマス・マシン」それぞれの取りまとめが参加者に示された。

すると、2つの取りまとめのうち、「ハーバーマス・マシン」を支持したのは56%、人間の仲介役を支持したのは44%。人間よりもAIの取りまとめの方が支持される結果になった。

また、これとは別のグループによる取りまとめ内容の比較評価によると、「ハーバーマス・マシン」は人間の仲介役に比べて、より明確で情報量が多く、非論理性が低く、多数派の視点をよりよく捉えており、作成者の意見を反映している可能性が低い、という結果になった。

意見を公平に要約しているか、少数派の意見が含まれているか、意見が二極化しているか、という点については、「ハーバーマス・マシン」と人間の仲介役で、統計的な違いは見られなかったという。

「ハーバーマス・マシン」の仲介により、グループ内の「合意」の割合(「賛成」と「反対」の差)は、平均で約8ポイント増加したという。

さらに研究チームは2023年4月と5月、200人が参加した仮想の市民集会を3回にわたって実施。9つの質問について、「ハーバーマス・マシン」が参加者の意見を取りまとめた。

このうち「刑務所収容者の削減」「移民申請者の入国容易化」「愛国心の奨励」「最低賃金の引き上げ」「温室効果ガス排出ネットゼロ」については支持増加の傾向がみられたという。

●陰謀論の軽減

AIが「介入」することで、効果がみられた、とする研究結果はほかにもある。AIが陰謀論軽減に役立つ、との論文が公開されている。

マサチューセッツ工科大学(MIT)の研究者、トーマス・コステロ氏ら同大学とカーネギーメロン大学の研究チームは、9月13日付の「サイエンス」に掲載された論文で、AIとの対話によって、実験参加者の陰謀論への信念が軽減された、としている。

実験では、米国人2,190人を対象に、チャットGPTで使われているLLM「GPT-4」を使用。それぞれの参加者が信じている陰謀論について述べ、「GPT-4」は3回にわたる会話で陰謀論への信念を弱める証拠などを示した。

その結果、参加者の陰謀論に対する信念は平均で20%減少し、その効果は2カ月間、低下することなく持続したという。

また、陰謀論への信念の低下は、「ジョン・F・ケネディ元大統領暗殺」「エイリアン」「(闇の秘密結社とされる)イルミナティ」といった古典的な陰謀論から、新型コロナや2020年米大統領選などの最近の事例にまつわるものまで、幅広いテーマで一貫して見られたという。

●AIによる「介入」の疑問

これらのAIによる「介入」の実験と効果には、疑問の声もある。

ディープマインドの実験結果について、ユニバーシティ・カレッジ・ロンドン(UCL)准教授、メラニー・ガーソン氏は、ガーディアンの取材に対して、「ハーバーマス・マシン」における文脈の欠如を指摘。実験のプロセスの中で、参加者はその心情を表明し、別の見解を持つ参加者との共感をはぐくむ機会が与えらえていない、としている。

さらにガーソン氏は、テクノロジーを使う上でカギになるのは文脈だとして、こう述べている。

仲介という役割が単に合意を見出すだけのものではない、と考えると、これはどれほどの価値があるといえるのか?

また、ケンブリッジ大学教授のサンダー・ファン・デル・リンデン氏は、陰謀論への信念を低減させるMITのコステロ氏らの研究について、ガーディアンの取材に対して、「AIが誤情報と戦うためにどのように活用できるかを示す良い例だ」としながら、現実世界で人々が自発的にそのようなAIと関わるかどうかは疑問だ、としている。

●事を収める塩梅

AIによる「介入」は、論点整理や取りまとめの効率化、情報理解の促進に一定の期待ができそうだ。

ただ世論操作など、「介入」と「合意」を巡る悪用のシナリオが、常にリスクとして付きまとう。

さらに、人の合意や納得には理に加えて情が絡み、その塩梅が事を収める肝になる。

智に働けば角が立つ、情に棹させば流される、といった人がいる。

(※2024年10月21日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事