災害時のデマ情報拡散どう防ぐ 一呼吸おいて慎重に確認を 能登半島地震の事例から
AIが社会的混乱を加速する
生成AIの広がりは、個々のユーザーが偽の画像や動画を簡単に作り出すことが可能な状況を生み出し、ディープフェイクの大衆化をもたらした。これは、虚偽の情報や誤った情報が急増することを意味し、「Withフェイク2.0時代」ともいえる新しい時代の始まりを示している。 実際、イスラエルとハマスの対立の例では、AIにより生成された偽の画像や動画が頻繁に投稿され、国際世論の誘導に使われている。 デマの拡散は、災害時の情報共有にも既に影響を及ぼしている。2022年の静岡県での水害時、ドローンによる撮影とされる水害の写真がSNSで広まったが、実際にはAIで生成した偽画像だった。この偽画像を作成したのは専門的な技術を持つわけではない一般市民で、「Stable Diffusion」という誰もがアクセス可能なサービスを使用していた。彼は普段通りにスマートフォンを操作しながら布団の中でこの画像を投稿したと述べている。 現在は、過去の画像や動画がデマの素材として用いられがちであるが、AI技術のさらなる発展により、将来は本物と見分けがつかない偽画像や偽動画をより簡単に生成できるようになるだろう。この技術の進化は、デマの量を飛躍的に増加させ、社会的混乱をさらに悪化させる可能性がある。生成AIとアテンション・エコノミーは非常に相性が良いのだ。
デマとの向き合い方
デマへの対応にあたり、自己反省の重要性を強調することから始めたい。これは、私たち自身がデマにたやすくだまされ得る存在であるという認識を持ち、情報に対して常に慎重な態度を取るべきであるということを意味する。 筆者らの研究グループによる調査結果によると、デマに接触した人々のうち77.5%が自分がだまされていることに気がつかなかった。特に50代から60代の層は若年層に比べ、その傾向が強いことが判明している。デマは若者だけの問題ではなく、全世代が自分もだまされる可能性があると認識することが必要である。 また、米国の研究では、大半の人が自身の情報の真偽判断能力を実際の能力よりも過信しており、そのように過信している人ほどだまされやすいという結果も出ている。 情報の精査もまた、不可欠である。他のメディアや人がどのように取り扱っているかを見る、画像であっても画像検索などで調べる、情報の発信源を確認する、ソースを検証するなど、さまざまな手段が存在する。情報があふれる現代社会で常時すべての情報を精査するのは難しいが、情報を共有したくなった時だけでもひと呼吸おき、確認することが重要である。 Xでは、誤解を招く投稿に対しユーザーが追加情報を付与する「コミュニティノート」機能が実装されている。この機能は投票により情報が追加されるため、集合的な知識に基づく信頼性のある情報が提供されることが多い。これを確認することも情報検証の有効な手段である。 また、デマの問題はインターネットに限定されず、「家族・友人・知人との直接会話」が主なデマ拡散手段となっていることが、筆者らの調査から明らかになった。身近な人の情報を専門家のそれより信じやすいとするコミュニケーション研究の結果もあり、身近な人からの情報であっても検証なしに信じることのリスクを認識することが求められる。災害時にSNSで広まったデマが、直接の会話を通じてさらに広がるケースも考えられる。 SNSプラットフォーム事業者による取り組みも重要で、特にXはイーロン・マスク氏の買収後、コンテンツへのチェック機能が弱まっていると指摘されている。表現の自由の尊重は前提としつつも、社会の混乱を招く虚偽情報に対しては、より厳格な基準の適用が求められる。虚偽情報を拡散しての収益化の停止も、重要な対策の1つである。
【Profile】
山口 真一 国際大学グローバル・コミュニケーション・センター(GLOCOM)准教授。博士(経済学)。専門は計量経済学、社会情報学、情報経済論。メディアにも多数出演・掲載。KDDI Foundation Award貢献賞、組織学会高宮賞、情報通信学会論文賞(2回)、電気通信普及財団賞、紀伊國屋じんぶん大賞を受賞。主な著作に『ソーシャルメディア解体全書』(勁草書房)、『正義を振りかざす「極端な人」の正体』(光文社)など。他に、東京大学客員連携研究員、シエンプレ株式会社顧問、内閣府、総務省、文部科学省、厚生労働省の政府有識者会議委員なども務める。