今見ている画像は本物か? 利便性高い生成AIでの画像生成に潜む“ニセ画像”の脅威
続伸する生成AI市場の影に潜む闇
しかし、人の顔や声を生成できるというのは、裏を返せば、実在する人の顔とその人の声に近い音声を使えば、その人が実際には発言していない、または行っていないことを再現させることが可能ということ。今この記事を読んでいるみなさんの中にも、すでにSNSなどでこの技術を悪用した画像や動画を見たことがある、という人も多いのではないだろうか。 深刻となっている技術の悪用による問題の一つが、“デジタル性犯罪だ。韓国では10代の一般女性などを中心に、SNSに掲載した写真などを使って、何者かが勝手に生成AIで性的動画、画像を作成。「テレグラム」という通信アプリを通じて拡散されているという。被害者の中には小学生も含まれ、被害の申告数は200件近くに上ったという。 韓国政府は対策を行い、警察も取り締まりを強化しているが、すでにアカウントを削除するなどし、追跡が難しいケースもあるという。デジタル性犯罪は韓国だけでなく、日本を含めた世界各国で被害者が確認されている。ターゲットも有名人、一般人、性別関係ない。まさに明日は我が身である。 加えて、政治への影響も危惧されている。例えば、今年7月にXに投稿された写真。アメリカ大統領選挙を控えるトランプ氏が、黒人の若者たちに囲まれている様子が写っているものだ。投稿にはトランプ氏への好意的なコメントが寄せられていて話題となった。しかし、のちに写真は生成AIで作られたと見られる偽画像であることが判明。トランプ氏支持者が、黒人の支持を集めるために作成し、投稿した疑いがあるという。 このほかにも、6月にはトランプ氏が岸田前首相を批判したというニセ動画が出回った。この動画ではトランプ氏の唇の動きなどが不自然で、かつ特定のAIサービスが使用されたことを示すマークが入っていたため、ニセモノだと判断できた人も多い。ただ、動画を信じた人もいるのは確実だ。動画はXで100万回以上再生されたことを考えると、いかにフェイク動画であるというマークがついていても、世論への影響を与え、誤解を招くコンテンツであると言わざるを得ない。