Yahoo!ニュース

「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える

岡田有花フリーランス記者
Twitterに投稿された偽の水害画像(筆者キャプチャ)

 「ドローンで撮影した静岡県の水害の画像」と称し、画像生成AIで作った偽の水害画像がTwitterで拡散し、物議をかもしています。

 画像は、複数の建物や木々が、泥水につかった様子を描いています。ぱっと見ただけでは、本物の水害写真に見えます。しかしよく見ると不自然なところがあり、合成写真のようにも見えます。

 その後、画像の投稿者は、この写真は画像生成AI「Stable Diffusion」で作った偽の水害画像だと打ち明けました。謝罪しつつも、だまされた人を「ばーか!」「ざまあwww」などと挑発し、議論になっています。

 ただ、今回の画像はまだ「偽物だと分かりやすかった例」でしょう。明らかに一般ユーザーのアカウントから投稿されていたこと、画像をよく見ると不自然な点が多いことなどがその理由です。

 投稿者本人もすぐに“ネタバレ”しており、「これが安易に広がると想定していなかった」などと釈明しています。デマを拡散しようという強い悪意を持っていたというより、面白半分だったのかもしれません。

悪意とともに広がるフェイクニュース

 では、もっと強い悪意を持ってデマを拡散するケースを考えてみましょう。例えば、同様の画像を、ニュースの公式サイトに似せた偽アカウントが発信していれば、拡散規模はさらに大きかったかもしれません。画像の不自然な点を手作業で修正したり、ネタバレしなければ、もっと拡散し、デマを信じていた人が増えていた可能性もあります。

 最近の例では、ニュースサイトに似た体裁の個人ブログに掲載された『トヨタ社長豊田章男氏、ワクチン打たず「DSが人口削減のために用意した遅効性の毒」株価は3%下落』というフェイクニュースを、Yahoo!ニュースに似せた偽アカウントから拡散し、Twitterのトレンド入るほど話題になったこともありました。

画像AIの精度向上が「フェイクを見抜く」をより難しく

 これまでのフェイクニュースは、テキストが中心だったり、画像があっても既存の画像を転用していることが多く、第三者から「証拠がない」と判断されたり、「画像は無関係なものだ」と指摘され、収束するケースもありました。

 しかし、イメージした画像を誰もが手軽かつリアルに生成できる「Stable Diffusion」などの画像AIが登場した今、事情は変わってきています。画像生成AIを使えば「もっともらしいオリジナル画像」をゼロから作ることができるからです。

 今回の静岡水害の “デマ画像”も、Stable Diffusionで「flood damage, Shizuoka」のキーワードで出てきた画像だそうです。わずか3ワードを入力するだけで、このような写真を生成できる時代なのです。

 それらしい写真を探してこなくても、また、写真合成などの技術がなくても、 適切な“呪文”を唱えることで、簡単にオリジナルの“それらしい写真”を作ってしまえるのです。

 もっともらしいオリジナル画像を、フェイクニュースに簡単につけることができる時代。フェイクニュース作りはより簡単になり、それが偽物だと見抜くことはより難しくなっていきそうです。

フリーランス記者

1978年生まれ。京都大学卒。IT系ニュースサイト記者、Webベンチャーを経て、IT・Web分野を軸に幅広く取材、執筆するフリーランス記者。著書に「ネットで人生、変わりましたか」(ソフトバンククリエイティブ)。

岡田有花の最近の記事