“AI闇市”も誕生 テイラー・スウィフトのフェイク画像事件を機に考える「現状と対策」
生成AIの登場によって、テキストを入力してプロンプトさえ指定すれば、だれでも画像を制作することが可能となった。こうした“画像制作の民主化”には、絵を描く技術がない人でも表現活動をできるようになるといったポジティブな面がある一方で、ネガティブな面もある。その最たる事例が、フェイク画像の拡散だろう。 【画像】AI被害を受けたテイラー・スウィフト そこで本稿では、フェイク画像をはじめとするAI生成フェイクコンテンツの現状と対策をまとめていく。 ■アメリカ政府も対応に奔走 テイラー・スウィフトのフェイク画像事件 ことし1月、フェイク画像をめぐる大事件が起こった。世界的なアメリカ人シンガーソングライターのテイラー・スウィフトの“性的に露骨な”フェイク画像がSNSで拡散している、とアメリカ大手メディアCBS(※1)などが一斉に報じたのだ。 以上の事態をうけてXは26日、「同意のないヌード画像のポストは厳しく禁止されており、そのようなポストを発見次第、直ちに削除する」という声明をポストした。声明には「不適切なポストを行うアカウントには適切な措置を講じる」とも書かれていた。また、Xでテイラー・スウィフトに関連するキーワードを検索すると「問題が発生しました。リロードを試してください」というメッセージが一時的に表示されるようになった。Metaが運営するThreadsやInstagramも同様の対応を実施した。 その後も問題は拡大の一途をたどり、ついにはアメリカ政府も反応するにいたった。26日に開催されたホワイトハウスの報道関係者向け会見では、AIが生成した有害画像に対して政府は何らかの取り組みを行っているのか、という記者からの質問があった(※2)。 この質問に対して、カリーヌ・ジャン=ピエール報道官は、2023年秋に24時間365日対応のオンライン・ハラスメントのためのヘルプラインを開設したと回答した。さらに今後、フェイクコンテンツに関する立法措置を講じるとも付け加えた。 事態が沈静化しつつあった2024年2月5日、CBSは問題のフェイク画像の由来について報じた(※3)。この問題を調査した調査会社Graphikaの報告によると、今回のフェイク画像は英語圏の掲示板サイト4chanから拡散したものであり、DALL-Eをはじめとする画像生成AIのガードレールを回避して有害な画像を生成できるかどうか、一部のユーザーがゲーム感覚で試行錯誤した結果として生成されたという。 以上の事件から得られる教訓は、大手テック企業が開発し、生成内容に制限を設けた画像生成AIであっても、悪意のあるユーザーが徒党を組めば悪用できてしまうことである。そして、こうした悪意に対して、世界はまだ十分な対抗策を確立していないことも明らかになった。 ■フェイク画像の被害は一般人にも及んでいる 実のところ、AI生成フェイクコンテンツの被害にあったセレブリティは、テイラー・スウィフトが初めてではない。ファッション誌「ELLE」の日本オンライン版が2月4日に公開した記事(※4)では、ハリウッドのセレブリティを対象としたディープフェイク動画事例をまとめている。そうした事例には悪意のない、パロディとして楽しまれているものがある一方で、2023年秋にトム・ハンクスがデンタルプラン(歯科医療に限定されたローンサービス)を宣伝するディープフェイク動画に無断利用された事例もある。この事例では、トム・ハンクスが公式Instagramに問題の動画が偽物であることを知らせる投稿をおこなった。 またフェイク画像生成は、セレブリティのみならず一般人も標的となっている。悪意のある目的で開発された画像生成AIを利用すれば、一般人が写った画像から“性的に露骨な”フェイク画像を生成できてしまうのだ。こうした有害な画像生成AIの開発には、時には違法行為も辞さないようなダークな企業・集団が関わっているとされる。 以上のような一般人をも対象とした有害なフェイク画像生成の実態について、前出のGraphikaは2023年12月8日にレポートを発表している(※5)。そのレポートによると、有害画像生成サービスを提供するプロバイダーは少なくとも34社あり、そうしたプロバイダーに2023年9月には2,400万ものユニークユーザがアクセスしていた。 有害画像生成サービスプロバイダーは、自社のサイトに誘導するスパムリンクを拡散することでユーザーを獲得している。そうしたリンクを含む投稿やコメントはXや掲示板サイト・Redditなどを介して拡散しており、2022年には1,280件だった投稿数が、2023年には32,100件に爆増している。 以上のサービスは、初回アクセス時に少数の有害画像生成を提供するフリーミアムモデルを採用していることが多い。そして、有料機能として高画質生成や「年齢」「身体特性」といった属性をカスタマイズ可能とする高額なオプションを提供している。 当然だが、こうしたサービスにクレジットカード番号を始めとする個人情報を提供することは非常に危険だ。カード情報の不正利用や流出といった金銭的・社会的リスクを鑑みれば、こうしたサービスからは距離を置くのが賢明である。 このように、有害なフェイク画像生成サービスはある種の闇市場を形成しており、もはやユーザー個人のモラルに訴えるだけでは問題を解決しがたい状況となっている。 ■技術的対策を打ち出す大手テック企業 AI生成フェイクコンテンツに対して、大手テック企業は技術的な対抗策を発表している。たとえばOpenAIは2024年2月7日、ChatGPTあるいはOpenAI APIによって生成された画像に、「C2PA」を付与することをXにて発表した。 「C2PA(Coalition for Content Provenance and Authenticity:コンテンツの証明性と真正性のための連合)」とは、デジタルメディアの出処と履歴を証明するシステムで、デジタルメディアに付与するメタデータとそれを参照するツールなどから構成されている。こうしたツールを実装しているウェブサイト「Content Credentials Verify」(※6)を活用すれば、生成手段と生成日などが確認できる(本稿のトップ画像はC2PAの確認画面だ)。 Google傘下のDeepMindは、Googleが開発した画像生成AIのImageFXに電子透かしを付与するシステム「SynthID」を開発した(※7)。このAIで生成された画像には人間には視認できない電子透かしデータが含まれており、そのデータは読み取りツールを使うことで確認できる。同システムは、音楽生成AIのLyriaにも対応している(※8)。具体的には、Lyriaで生成した音響データをスペクトラム画像として視覚化した後、人間が識別できないような波形データを付与する。読み取りツールを使えば、その波形を特定できるのだ。 Metaも、電子透かしシステム「Stable Signature」を発表している(※9)。このシステムはSynthIDと同様に視認不可の電子透かしを付与するのだが、画像を生成したユーザーを特定する機能も有している。この機能は、ユーザーごとにカスタマイズされた画像生成AIを配布したうえで、そのAIが画像生成の度にユーザーを特定できる識別コードを付与するという仕組みになっている。 YouTubeは2024年3月19日、AIによって生成または改変されたメディアで作成されたコンテンツであることを視聴者に開示するラベルを付与するツールの提供を発表した(※10)。このラベルは、実在する建物に火災が発生しているように改変するような「影響力の大きいコンテンツ」を作成する際に付与することを義務化するもので、一定の周知期間を猶予として設けた上で、正式に運用していくとされている。 YouTubeはあきらかに生成物であることがわかるようなコンテンツ(たとえばファンタジーの世界を表現した創作作品など)についてはラベルを表示する義務が無いとしている。一方で、ラベル付与が必要にもかかわらず一貫してラベルを付与しないクリエイターに対しては、何らかの措置を講じることを検討している、とも発表ブログ記事には書かれている。 ■民主主義をもおびやかすフェイクコンテンツとの戦い 2024年にはアメリカ大統領選挙をはじめとして、世界各地で重要な選挙が実施される。こうした国政選挙にフェイク画像が悪用された場合、民主主義そのものが脅かされてしまう懸念もある。こうした事情により、フェイク画像に対する政治的取り組みも進んでいる。 日本の総務省は、生成AIやメタバースの台頭によりデジタル空間が拡大・深化する現状をうけて、2023年10月末に「デジタル空間における情報流通の健全性確保の在り方に関する検討会」を立ち上げた。同検討会の第14回(※11)と第15回(※12)では、大手テック企業の偽・誤情報に対する取り組みが発表された。発表した企業としてGoogle、Meta、TikTok、Microsoft、そしてXが名を連ね、前出の電子透かしや選挙関連コンテンツに対するポリシーなどについて発表した。 OpenAIは2024年1月15日、同年実施のアメリカ大統領選挙に関する取組を発表した(※13)。その内容とは、同社が今年1月に立ち上げたアプリストアである「GPT Store」において、ユーザーに何らかの投票行動を行うように説得するようなAIアプリの開発を禁止する、というものであった。さらにC2PAのようなメタデータがなくても、同社開発の画像生成AIであるDALL-Eで生成した画像であることを特定できる技術を開発中であることが明らかになった。 2024年2月16日から18日にかけてドイツ・ミュンヘンで開催された第60回ミュンヘン安全保障会議では、GoogleやOpenAIを含む大手テック企業20社が「2024年選挙におけるAIの欺瞞的利用に対抗する技術協定」を締結した(※14)。この協定は、「選挙におけるAIの悪用に対する技術的対策の共有」をはじめとする8項目について、締結企業間の協調を約束したものである。 以上のように、恣意的あるいは悪意のあるAI生成フェイクコンテンツは世界共通の問題であるので、その対策も世界全体で取り組む方向に向かっている。しかしながら、こうした取り組みが十分に効果を発揮するようになるまでには、しばしの時間がかかるだろう。それゆえ、技術的対策の推進と並行して、ユーザーひとりひとりが有害あるいは偽のコンテンツに対して適切な行動をとれるようにするAIリテラシーの育成が重要となるだろう。 (※1)CBS「Taylor Swift deepfakes spread online, sparking outrage」https://www.cbsnews.com/news/taylor-swift-deepfakes-online-outrage-artificial-intelligence/ (※2)The White House「Press Briefing by Press Secretary Karine Jean-Pierre, NSC Coordinator for Strategic Communications John Kirby, and National Climate Advisor Ali Zaidi」https://www.whitehouse.gov/briefing-room/press-briefings/2024/01/26/press-briefing-by-press-secretary-karine-jean-pierre-nsc-coordinator-for-strategic-communications-john-kirby-and-national-climate-advisor-ali-zaidi/ (※3)CBS「Fake and graphic images of Taylor Swift started with AI challenge」https://www.cbsnews.com/news/taylor-swift-artificial-intellignence-ai-4chan/ (※4)オンラインELLE日本版「テイラー・スウィフトの猥褻画像だけじゃない! セレブとAI技術の行方【ピーチズのOM(F)G!】」https://www.elle.com/jp/culture/celebgossip/g46601939/peaches-deep-fake-good-or-bad-240204/ (※5)Graphika「A Revealing Picture」https://graphika.com/reports/a-revealing-picture (※6)「Content Credentials Verify」https://contentcredentials.org/verify (※7)Google DeepMind「Identifying AI-generated images with SynthID」https://deepmind.google/discover/blog/identifying-ai-generated-images-with-synthid/?_gl=1*f7zies*_up*MQ..*_ga*NDcxMTE2NDcuMTcwNzcxNDE4MQ..*_ga_LS8HVHCNQ0*MTcwNzcxNDE4MS4xLjAuMTcwNzcxNDIxNy4wLjAuMA.. (※8)Google DeepMind「Transforming the future of music creation」https://deepmind.google/discover/blog/identifying-ai-generated-images-with-synthid/?_gl=1*f7zies*_up*MQ..*_ga*NDcxMTE2NDcuMTcwNzcxNDE4MQ..*_ga_LS8HVHCNQ0*MTcwNzcxNDE4MS4xLjAuMTcwNzcxNDIxNy4wLjAuMA.. (※9)Meta「Stable Signature: A new method for watermarking images created by open source generative AI」https://ai.meta.com/blog/stable-signature-watermarking-generative-ai/ (※10)YouTube「改変または合成されたコンテンツをクリエイターが開示するための仕組み」 https://youtube-jp.googleblog.com/2024/03/disclosing-ai-generated-content.html (※11)デジタル空間における情報流通の健全性確保の在り方に関する検討会「第14回配布資料」https://www.soumu.go.jp/main_sosiki/kenkyu/digital_space/02ryutsu02_04000449.html (※12)デジタル空間における情報流通の健全性確保の在り方に関する検討会「第15回配布資料」https://www.soumu.go.jp/main_sosiki/kenkyu/digital_space/02ryutsu02_04000450.html (※13)OpenAI「How OpenAI is approaching 2024 worldwide elections」https://openai.com/blog/how-openai-is-approaching-2024-worldwide-elections (※14)MSC「A Tech Accord to Combat Deceptive Use of AI in 2024 Elections」https://securityconference.org/en/aielectionsaccord/
吉本幸記