Yahoo!ニュース

「赤ちゃんの遺体画像を"AI生成"と判定」イスラエル・ハマス衝突、AIフェイクの本当のリスクとは

平和博桜美林大学教授 ジャーナリスト
瓦礫と子どもたち=10月25日、ガザ地区カーンユニス(写真:ロイター/アフロ)

赤ちゃんの遺体を写した画像を、AI判定ソフトが「AI生成」と判定した結果、それがネットやメディアに拡散し――。

イスラエルとイスラム武装組織ハマスの軍事衝突から1カ月。この間、ネットでは生成AIで作られた様々なフェイク画像が飛び交ってきた。

そんな中、イスラエル首相府が10月にXで公開した「赤ちゃんの焼死体」の画像が、米ベンチャーのAI判定ソフトで「AI生成」と判定され、大きな波紋を呼んだ。

騒動を受けて、当の判定ソフトの開発元は、正確性に問題があったと釈明したが、「AI生成」の情報は、その後もネットとメディアを通じて拡散を続けた。

極めてリアルな生成AIフェイク画像が与えるインパクトは、人々が「フェイクに騙される」ことだけではない。

本物に対しても「これは本物か?」との疑念を広げ、事実を「フェイク化」する危険をはらむ。そして、AI判定の難しさが、さらに事態を複雑にする。

真偽の境目が、加速度的に濁っていく。

●「判定結果は決定的なものではない」

私たちはツイッターで起こっている議論をモニタリングしています。注目度の高い、物議を醸す事案ではいつもそうします。問題の写真は、名札の部分をぼかすために圧縮・加工されていました。それが原因で、判定結果が決定的なものではなかったことを、当社のシステムで確認しました。

サンフランシスコのAIベンチャー「オプティック」のAI画像判定ソフト「AIオアノット」のXアカウントは10月14日(日本時間)、そんな投稿をした。

「AIオアノット」は、代表的なAI画像判定ソフトとして、メディアでも取り上げられてきた。

問題となった写真には、生々しい赤ちゃんの焼死体が写っている。その名札らしき部分に、モザイクがかかったところがある。

「オプティック」の投稿は、「AIオアノット」による「画像はAIが生成」との判定結果が、この圧縮・加工部分に反応したもの、と釈明したのだ。

同社が釈明を迫られたのは、この「AI生成」判定が原因で、メディアも巻き込んだグローバルな混乱の火種となっていたためだ。

起点となったのは、イスラエル首相府による10月12日のXへの投稿だった。投稿にはハマスに殺害されたとする3枚の赤ちゃんの遺体画像が掲載されていた。そのうちの1枚が、問題となった焼死体の画像だ。

同日、イスラエルを訪問したアントニー・ブリンケン米国務長官に、ベンヤミン・ネタニヤフ首相が見せたものだという。

投稿の表示数は770万回超、コメント数は7,900件超、リポストは2万3,000回超に上った。

この時、イスラエル政府は、首相府広報官がその前日に「赤ん坊がハマスに斬首された」と語った情報を巡り、同首相府が一転して撤回するという混乱の渦中にあった。

※参照:「ハマスが40人の赤ちゃんを…」未確認情報が拡散、メディアや米大統領も(10/20/2023 新聞紙学的

だが、この焼死体の画像が、さらなる混乱の端緒となった。

●「AI生成」との判定

イスラエル首相府の投稿からわずか30分後、630万人超のフォロワーを持つ米国の右派インフルエンサーが、その写真をXに投稿した。

投稿は、1,640万件超の表示回数、2万8,000件超のコメント、2万9,000件超のリポストを集めた。

するとその6時間半後、180万人超のフォロワーを持つやはり米国の右派インフルエンサーが、この写真について、「AIオアノット」が「画像はAIが生成」と判定したとの画像を投稿。

「『赤ちゃんの焼死体』はAI生成のフェイク画像」と書き込んだ

この投稿は、2,200万回超の表示数、9,100件超のコメント、4万8,000回超のリポストを集め、拡散していく。

さらに、「元画像は子犬だった」として、遺体の部分が黒い子犬に置き換わった別の画像も、あわせてネットに広がった。

最初の右派インフルエンザーの投稿には一時、Xの注意喚起機能「コミュニティノート」で、「AIオアノット」の判定結果を元に「画像はAI生成」との表示が行われた(のちにこの指摘は非表示となった)。

これらの混乱を受けて、「AIオアノット」が釈明に乗り出したのが、冒頭のXへの投稿だった。

だが、「AIオアノット」のアカウントのフォロワーは132人。打消しコメントの表示数は1,500回超、リポストは9件に止まった。

一方で、「画像はAIが生成」の情報拡散は止まらなかった。

この「AI判定」を根拠に、問題の画像を「フェイク」と伝えるマスメディアも出てきた。

カタール国営のアルジャジーラは10月14日付で、イスラエル首相府の投稿を受けた一連の反応を動画にまとめて、「(ハマスの軍事部門)アルカッサム旅団メンバーへのイスラエルのフェイクの告発を、AIが暴露する」とXに投稿した。

アルジャジーラの投稿は、51万回超の表示数、4,400回超のリポストを集めた。

このほかにも、パキスタンのニュースチャンネル「サマーTV」やインドのニュースチャンネル「タイムズナウ」もその前日の10月13日付で、それぞれファクトチェックとして問題の画像を「AI生成」の「フェイク」と報じていた。

●生成AIフェイクの浸透

イスラエル・ハマスの軍事衝突から1カ月、すでに様々な生成AIを使ったフェイク画像が広がっている。

主なものは以下の通りだ。

・1人の男性が赤ちゃんを含む5人の子どもたちを抱え、ビルのがれきから助け出す画像AFP通信[仏]、カッコ内は検証をした国際ファクトチェックネットワーク〈IFCN〉認証団体。以下同)。

・幼児の目の前で、自宅が爆撃される瞬間をとらえた画像ザ・クイント[インド]、ニュースメーター[同])。

・赤ちゃんが瓦礫に挟まれ、這い出そうとしている画像ブーム[インド])。

・ビルのバルコニーから人々が乗り出し、イスラエルの国旗を掲げて兵士たちの行進に歓声を上げる画像ロイター通信[英])。

・イスラエルの国旗を掲げた無数のテントが海岸線に並ぶ難民キャンプの画像フランス24[仏]、ザ・クイント)。

・スペインのプロサッカーチーム、アトレティコ・マドリードのファンが、パレスチナの旗を掲げて応援している画像AFP通信ロイター通信ザ・クイント)。

いずれも注意深く見ると、画像の手や足の部分に不自然さがあったり(救出される子どもたち、サッカー場の観衆)、イスラエル国旗の「ダビデの星」が2つあったり(難民キャンプ)と、判別する手がかりはある。

それでも、拡散するには十分なインパクトを持つ。

●AI判定ソフトは間違える

各国のメディアやファクトチェック団体でも、検証の手がかりとして、AI判定ソフトを使っているケースがある。

だがその精度は、ソフトの性能や、画像の状態によってもまちまちだという。

ニューヨーク・タイムズは6月28日付の記事で、今回問題となった「AIオアノット」を含む5つの代表的なAI判定ソフトの精度を比較、検証している。

検証では、ソフトによって判定精度にかなりのばらつきがあった。しかし「AIオアノット」は、テスト用の画像判定では全問正解していた。

オンラインの調査報道機関、べリングキャットも9月11日付で、「AIオアノット」を使い、実際の画像100枚、AI画像100枚の計200枚で検証を行っている。

その結果、AI生成画像ではすべてを正確に検出できた一方、実際の画像のうち6枚を「AI生成」と誤判定した。さらに、追加検証で圧縮(サイズ縮小)した画像を使ったところ、判定の精度が落ちたことが確認できたという。

サイズ変更といった、一般的に行われる画像の処理によっても、AI判定ソフトは間違えることがあるようだ。

「オプティック」は一連の釈明ツイートの中で、「AIオアノット」について「日々、アルゴリズムのアップデートを続けている」と述べている

私たちは良いことをしようとしている。だから、サービスを継続し、真実を伝えるために最善を尽くそう、という結論に達した。一方で、考え込んでしまった――私たちは、より多くの困惑と混乱を引き起こしているのではないだろうか、と。

「オプティック」のCEO、アナトリー・クヴィトニツキー氏は、10月28日付のニューヨーク・タイムズの記事で、そんなコメントをしている。

そもそもの騒動の発端となった画像は、本物だったのか。

フランス24や米ファクトチェック団体、チェック・ユア・ファクトなどは、専門家らの分析や独自の検証から、「AIで生成されたものではないだろう」との見通しを示している。

本稿執筆時点で、問題の画像をチェックすると、「おそらく人間によるもの」との判定が出る。

●「嘘つきの分け前」のインパクト

文脈が乏しく、信頼性の低いディープフェイクスの検知は、検知をまったく行わない場合よりも有害だ。真実への道筋や、決定的な評価法があるかのように錯覚させてしまうからだ。実際にはそんなものはない。嘘つきの分け前は、間違いなくさらに悪質だ。

AI専門家のヘンリー・アイダー氏は10月31日付のブルームバーグの記事の中で、そう指摘する。そして、こう述べている

生成AIの影響は、単にフェイクコンテンツの生成にとどまらず、実在するコンテンツにも、長い影を落としている。

「嘘つきの分け前(liar's dividend)」という呼び名は、テキサス大学法学部長、ロバート・チェスニー氏とバージニア大学教授のダニエル・シトロン氏が、ディープフェイクスのリスクを取り上げた2018年の共著論文で提唱したものだ。

ディープフェイクスのリスクは、現実にないものを現実と思い込ませるだけではない。現実を簡単に否定できるようにもしてしまう。

私たちが「嘘つきの分け前」と呼ぶ状況では、ディープフェイクスは、実際に起きた本当のことに対して、嘘つきが説明責任を容易に回避できるようにしてしまう。

※参照:「ディープフェイクス」に米議会動く、ハードルはテクノロジー加速と政治分断(06/22/2019 新聞紙学的

そんなリスクが、今回の騒動を巡って、現実のものとして浮かんできた。

●真偽の境界線が濁る

生成AI画像の氾濫と、生成AI判定ソフトの精度の限界が相まって、真偽の境界は濁り、視界はどんどんと悪くなっている。

情報戦の拡大と、情報への疑念が、その後押しをする。

(※2023年11月6日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事