Yahoo!ニュース

「イスラエル・パレスチナ紛争のAI生成画像」Adobeが販売、そのインパクトとは?

平和博桜美林大学教授 ジャーナリスト
イスラエルの攻撃を逃れるパレスチナの人々=11月6日、ガザ中部マガジ難民キャンプ(写真:ロイター/アフロ)

「イスラエル・パレスチナ紛争のAI生成画像」をアドビが販売している――。

画像ソフトなどを提供するアドビのストック画像サイトで、イスラエル・パレスチナ紛争をテーマとしたリアルなAI生成画像を販売していることが、明らかになった。

これらの画像は、メディアサイトなどで、AI生成画像と明示されぬまま掲載されている。

今回のイスラエル・ハマス衝突を巡っては、AI生成を含む様々なフェイク画像やフェイク動画が氾濫。一方で、現実の画像が「AIフェイク」と誤判定される騒動も起きている。

衝突を巡る画像の虚実があいまいになる中で、新たな懸念が広がる。

●紛争画像の販売

アドビは、人工的に生成されたイスラエルとハマスの戦争のリアルな画像を販売しており、それがフェイクであることを示すことなくインターネット上で使用されている。

オーストラリアのニュースサイト「クライキィ」は11月1日付の記事でそう指摘している。

クライキィが指摘したのは、アドビが運営するフォトグラファー、クリエイターによるストック画像の販売サイト「アドビ・ストック」だ。

同サイトの検索欄で「イスラエル」「パレスチナ」「ガザ」「ハマス」などのキーワードを入力すると、ガザ地区とイスラエルを隔てる壁やイスラエル軍の戦車、エルサレムの岩のドームなど、現実の写真と見られる画像も表示される。

一方で目を引くのは、AI生成の極めてリアルな画像の数々だ。

パレスチナ・イスラエル紛争で破壊された街の母と子」「イスラエル市内で破壊され焼失した建物」「イスラエルとパレスチナの戦争。アルアクサ・モスクの裏手に上がる煙」などのタイトルで販売されている。

実際の画像もAI生成画像も、通常ライセンスでは1枚当たり1,298円だ。

AI生成画像の場合、タイトルやクレジット欄に「AIによる生成」との表記がある。

「アドビ・ストック」は2022年12月、ストック画像サイトでは唯一、生成AIによるストック画像の販売も受け入れることを表明した。その条件として挙げるのは、AI生成画像であることを明示する、という点だ。

アドビは2023年3月に自社の画像生成AI「ファイアーフライ」ベータ版を発表し、9月にはその一般提供を始めている。

ストック画像専門の分析サイト「ストックパフォーマー」の2023年5月26日付の記事によると、同年4月時点で「アドビ・ストック」のアップロード画像におけるAI画像の割合は約13%に上る。

そして、1画像当たりの1カ月の平均収益を見ると、「アドビ・ストック」全体では3.75セントなのに対して、AI画像は17セントと、高いパフォーマンスを上げているという。

●「AI生成」の表示なし

AI生成画像の中でも、「イスラエル・パレスチナ紛争の生成AI」と題した画像は、市街地での爆発で黒煙が舞い上がる様子がリアルに描かれ、現実の画像と見分けがつきにくい。

このAI生成画像は、グーグル画像検索で見る限り、イスラエル・ハマス衝突関連のコンテンツとして、幅広いサイトで掲載されている。

掲載サイトも、欧州ドイツイタリアカザフスタン、さらにブラジルへと広がる。

ドイツのサイトは画像の出典が「アドビ・ストック」であることを示しているが、AI生成の画像であることを明示しているサイトは見当たらない。イメージ画像としての扱いで、キャプションもない。

日本でもメディアが掲載したものを、ポータルサイト転載している事例あった。元の記事では「画像はイメージです」との記載はあるが、転載先ではその記載がないケースもある。いずれも、AI生成画像であることの説明はない。

様々なコンテンツで、イメージ画像はごく一般的に使われる。

そしてイメージ画像は、そもそも現実を写した画像ではない、「仮想のイメージ」という前提で使われるものだ。通常は、見る側もそのような前提で見る。

ただ、極めてリアルなAI生成画像の場合、その真偽の境目が曖昧になる。

●情報空間の「汚染」

特にイスラエル・ハマス衝突では、情報戦の中で、膨大なフェイク画像やフェイク動画が氾濫する。

欧州連合(EU)は、フェイクニュース対策に関する新たなプラットフォーム規制法「デジタルサービス法(DSA)」を背景に、端緒となったハマスの急襲から3日後には、Xに対し、その翌日にはメタに対して、対応を要請。

さらにフェイクニュース氾濫の深刻さが指摘されるXに対しては、同法に基づく調査乗り出している

※参照:ハマス・イスラエル軍事衝突でフェイク氾濫、EUがXを叱り、Metaに警告した理由とは?(10/12/2023 新聞紙学的

フェイク画像には、過去の画像やゲーム画像に混じって、生成AIによるものも飛び交う。

その一方で、イスラエル政府がXに投稿した「赤ちゃんの遺体画像」を、AI画像の判定ソフトが「AI生成」と回答し、混乱を引き起こしたケースもある。

※参照:「赤ちゃんの遺体画像を“AI生成”と判定」イスラエル・ハマス衝突、AIフェイクの本当のリスクとは?(11/06/2023 新聞紙学的

それだけではない。現実の画像を、AIによって高精細化処理をしたことで「AI生成」の指摘を受け、混乱を招いたケースもある。

●高精細化処理の波紋

イスラエルのインフルエンサーが10月20日、「ハマスの指導者たちが贅沢な暮らしを満喫している」との書き込みとともに、プライベートジェットの搭乗の様子などを示す4枚の画像をXに投稿した。

投稿画像には、AI生成画像に特有の不自然な部分が目立ち、「AI生成フェイク」との批判が広がる。

だがフォーブスの検証によれば、インフルエンサーはこの4枚の写真を2014年のニュースサイト記事からXに投稿していた。ただその際に、低精細だった画像を、AIによって高精細化する処理(アップスケール)を行っていたという。

AIによる高精細化処理では、画像の情報の足りない部分で「AI生成」で起きるような不自然な特徴が出ることがあるという。

筆者もまず、AI画像判定ソフト「AIオアノット」で確認してみた。このソフトは、前述の「赤ちゃんの遺体画像」を「AI生成」と判定し、その後、判定は正確ではなかったと釈明をした経緯がある。

その「AIオアノット」の判定によると、インフルエンサーが投稿した画像はすべて「AI生成」、元になった2014年の画像はすべて「人間が作成」との結果になった。

また、別のAI画像判定ソフト「イルミナーティ」では、インフルエンサーが投稿した4枚の画像が「AI生成」である確率は「8.6%」「8%」「4.2%」「88.1%」、2014年の元画像の「AI生成」確率は「0.7%」「2.6%」「7%」「0.9%」。3枚については、高精細化画像の「AI生成」確率が高く、うち1枚(プライベートジェット内の画像)は極端に高かった。

念のため、2014年の元画像を「アップスケール・メディア」というサービスを使って高精細化した上で、AI画像判定にかけたところ、上記と同様の結果となった。

「AI生成」疑惑は、この高精細化処理が原因だったように見える。

この騒動を巡っては、日本でもTBSがインフルエンサーの投稿画像を「生成AIでつくられたフェイク画像」と報じ、後に訂正している。

●虚実のあいまい化

冒頭のクライキィの指摘について、画像専門サイト「ペタピクセル」へのコメントで、アドビはこう説明している。

「アドビ・ストック」は、すべての生成AIコンテンツに対して、ライセンス申請時にそのラベル付けを要求するマーケットプレイスです。これらの特定の画像は、この要件に沿って提出され、ライセンスのために利用可能とする際に、生成AIとしてラベル付けされます。

また、アドビが2019年に立ち上げ、マイクロソフトやBBCなども加盟するなども加盟するプロジェクト「コンテント・オーセンティシティ・イニシアチブ(CAI)」を通じて、コンテンツにその出所情報を紐づけする技術とともに、誤情報対策に取り組んでいるという。

アドビが説明するように「アドビ・ストック」のAI生成画像は、「AI生成」であることが明示されている。

だが特にフェイク画像の氾濫するイスラエル・ハマス衝突の情報空間では、サイトに掲載される段階で、その虚実は一気にあいまい化する。

このような情報環境では、サイト掲載の際にも、AI生成画像には「AI生成」と明示することは必要だろう。

(※2023年11月9日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事