AIの嘘に対抗できるのはAIだけ 「ネットのクソ化」と戦う世界のファクトチェッカーの秘策は
問題としてのAI、対策としてのAI
技術革新とプラットフォームのビジネスモデルが情報生態系の悪化に拍車をかけるという根源的な問題に、ファクトチェッカーはどう対峙するのか。GF11では全体で60あったメインセッションや分科会のうち、16がAIや技術に関するもので、それ以外のテーマの議論でも、多くがAIに言及していた。 筆者(古田)は2022年から3年連続でGFに参加している。テクノロジーに関する議論は年々増え、今年は特にAI活用の話題が急増した。インドでのディープフェイク分析について報告した登壇者はGoogle出身。技術畑の参加者も増えている。 「AIとファクトチェック」「AIによる音声と画像の検証」といったAIを検証に直接的に活用する内容や、AIによる翻訳や動画作成でファクトチェックコンテンツを広げる具体的な手法の紹介、「AIは我々から盗むのか学ぶのか」といったAIの問題点を踏まえた議論もあった。 共通しているのは、AIなしに偽・誤情報対策は不可能という認識だが、AIにも得意・不得意な分野がある。AIに関する初歩的な議論に止まっていたこれまでのGFと異なり、サラエボではAIの強みを活かす実用的なツールや実践的な活用法の紹介が目立った。 例えば、AIで作られた偽音声をAIで検証するツールは、これまでにも存在したが精度が低かった。2023年12月にシンガポールで開かれたアジア太平洋地域のファクトチェッカーのイベントTrusted Media Summitでは「検証は非常に難しい」と議論していたが、半年後のGF11では精度が非常に高い新ツールが出てきた。 偽音声は日本ではまだそれほど注目されていないが、実は偽動画よりも検証が難しいことでファクトチェッカーを悩ませていた(それが知られると偽音声を作る人が増える懸念があるために公にはあまり語られなかった)。 動画であれば背景に映り込んでいるディテールなどからヒントを得る手法があるが、音声は音声以外の情報がないために、人による検証が非常に難しかった。技術によってその壁を乗り越えたのは大きな成果だ。