「イスラエル・パレスチナ紛争のAI生成画像」Adobeが販売、そのインパクトとは?
「イスラエル・パレスチナ紛争のAI生成画像」をアドビが販売している――。
画像ソフトなどを提供するアドビのストック画像サイトで、イスラエル・パレスチナ紛争をテーマとしたリアルなAI生成画像を販売していることが、明らかになった。
これらの画像は、メディアサイトなどで、AI生成画像と明示されぬまま掲載されている。
今回のイスラエル・ハマス衝突を巡っては、AI生成を含む様々なフェイク画像やフェイク動画が氾濫。一方で、現実の画像が「AIフェイク」と誤判定される騒動も起きている。
衝突を巡る画像の虚実があいまいになる中で、新たな懸念が広がる。
●紛争画像の販売
オーストラリアのニュースサイト「クライキィ」は11月1日付の記事でそう指摘している。
クライキィが指摘したのは、アドビが運営するフォトグラファー、クリエイターによるストック画像の販売サイト「アドビ・ストック」だ。
同サイトの検索欄で「イスラエル」「パレスチナ」「ガザ」「ハマス」などのキーワードを入力すると、ガザ地区とイスラエルを隔てる壁やイスラエル軍の戦車、エルサレムの岩のドームなど、現実の写真と見られる画像も表示される。
一方で目を引くのは、AI生成の極めてリアルな画像の数々だ。
「パレスチナ・イスラエル紛争で破壊された街の母と子」「イスラエル市内で破壊され焼失した建物」「イスラエルとパレスチナの戦争。アルアクサ・モスクの裏手に上がる煙」などのタイトルで販売されている。
実際の画像もAI生成画像も、通常ライセンスでは1枚当たり1,298円だ。
AI生成画像の場合、タイトルやクレジット欄に「AIによる生成」との表記がある。
「アドビ・ストック」は2022年12月、ストック画像サイトでは唯一、生成AIによるストック画像の販売も受け入れることを表明した。その条件として挙げるのは、AI生成画像であることを明示する、という点だ。
アドビは2023年3月に自社の画像生成AI「ファイアーフライ」ベータ版を発表し、9月にはその一般提供を始めている。
ストック画像専門の分析サイト「ストックパフォーマー」の2023年5月26日付の記事によると、同年4月時点で「アドビ・ストック」のアップロード画像におけるAI画像の割合は約13%に上る。
そして、1画像当たりの1カ月の平均収益を見ると、「アドビ・ストック」全体では3.75セントなのに対して、AI画像は17セントと、高いパフォーマンスを上げているという。
●「AI生成」の表示なし
AI生成画像の中でも、「イスラエル・パレスチナ紛争の生成AI」と題した画像は、市街地での爆発で黒煙が舞い上がる様子がリアルに描かれ、現実の画像と見分けがつきにくい。
このAI生成画像は、グーグル画像検索で見る限り、イスラエル・ハマス衝突関連のコンテンツとして、幅広いサイトで掲載されている。
掲載サイトも、欧州、ドイツ、イタリア、カザフスタン、さらにブラジルへと広がる。
ドイツのサイトは画像の出典が「アドビ・ストック」であることを示しているが、AI生成の画像であることを明示しているサイトは見当たらない。イメージ画像としての扱いで、キャプションもない。
日本でもメディアが掲載したものを、ポータルサイトで転載している事例があった。元の記事では「画像はイメージです」との記載はあるが、転載先ではその記載がないケースもある。いずれも、AI生成画像であることの説明はない。
様々なコンテンツで、イメージ画像はごく一般的に使われる。
そしてイメージ画像は、そもそも現実を写した画像ではない、「仮想のイメージ」という前提で使われるものだ。通常は、見る側もそのような前提で見る。
ただ、極めてリアルなAI生成画像の場合、その真偽の境目が曖昧になる。
●情報空間の「汚染」
特にイスラエル・ハマス衝突では、情報戦の中で、膨大なフェイク画像やフェイク動画が氾濫する。
欧州連合(EU)は、フェイクニュース対策に関する新たなプラットフォーム規制法「デジタルサービス法(DSA)」を背景に、端緒となったハマスの急襲から3日後には、Xに対し、その翌日にはメタに対して、対応を要請。
さらにフェイクニュース氾濫の深刻さが指摘されるXに対しては、同法に基づく調査に乗り出している。
※参照:ハマス・イスラエル軍事衝突でフェイク氾濫、EUがXを叱り、Metaに警告した理由とは?(10/12/2023 新聞紙学的)
フェイク画像には、過去の画像やゲーム画像に混じって、生成AIによるものも飛び交う。
その一方で、イスラエル政府がXに投稿した「赤ちゃんの遺体画像」を、AI画像の判定ソフトが「AI生成」と回答し、混乱を引き起こしたケースもある。
※参照:「赤ちゃんの遺体画像を“AI生成”と判定」イスラエル・ハマス衝突、AIフェイクの本当のリスクとは?(11/06/2023 新聞紙学的)
それだけではない。現実の画像を、AIによって高精細化処理をしたことで「AI生成」の指摘を受け、混乱を招いたケースもある。
●高精細化処理の波紋
イスラエルのインフルエンサーが10月20日、「ハマスの指導者たちが贅沢な暮らしを満喫している」との書き込みとともに、プライベートジェットの搭乗の様子などを示す4枚の画像をXに投稿した。
投稿画像には、AI生成画像に特有の不自然な部分が目立ち、「AI生成フェイク」との批判が広がる。
だがフォーブスの検証によれば、インフルエンサーはこの4枚の写真を2014年のニュースサイト記事からXに投稿していた。ただその際に、低精細だった画像を、AIによって高精細化する処理(アップスケール)を行っていたという。
AIによる高精細化処理では、画像の情報の足りない部分で「AI生成」で起きるような不自然な特徴が出ることがあるという。
筆者もまず、AI画像判定ソフト「AIオアノット」で確認してみた。このソフトは、前述の「赤ちゃんの遺体画像」を「AI生成」と判定し、その後、判定は正確ではなかったと釈明をした経緯がある。
その「AIオアノット」の判定によると、インフルエンサーが投稿した画像はすべて「AI生成」、元になった2014年の画像はすべて「人間が作成」との結果になった。
また、別のAI画像判定ソフト「イルミナーティ」では、インフルエンサーが投稿した4枚の画像が「AI生成」である確率は「8.6%」「8%」「4.2%」「88.1%」、2014年の元画像の「AI生成」確率は「0.7%」「2.6%」「7%」「0.9%」。3枚については、高精細化画像の「AI生成」確率が高く、うち1枚(プライベートジェット内の画像)は極端に高かった。
念のため、2014年の元画像を「アップスケール・メディア」というサービスを使って高精細化した上で、AI画像判定にかけたところ、上記と同様の結果となった。
「AI生成」疑惑は、この高精細化処理が原因だったように見える。
この騒動を巡っては、日本でもTBSがインフルエンサーの投稿画像を「生成AIでつくられたフェイク画像」と報じ、後に訂正している。
●虚実のあいまい化
冒頭のクライキィの指摘について、画像専門サイト「ペタピクセル」へのコメントで、アドビはこう説明している。
また、アドビが2019年に立ち上げ、マイクロソフトやBBCなども加盟するなども加盟するプロジェクト「コンテント・オーセンティシティ・イニシアチブ(CAI)」を通じて、コンテンツにその出所情報を紐づけする技術とともに、誤情報対策に取り組んでいるという。
アドビが説明するように「アドビ・ストック」のAI生成画像は、「AI生成」であることが明示されている。
だが特にフェイク画像の氾濫するイスラエル・ハマス衝突の情報空間では、サイトに掲載される段階で、その虚実は一気にあいまい化する。
このような情報環境では、サイト掲載の際にも、AI生成画像には「AI生成」と明示することは必要だろう。
(※2023年11月9日付「新聞紙学的」より加筆・修正のうえ転載)