"顔替え職人"が語る「ディープフェイクポルノ」の最新実態。自分の顔が知らないうちに使われる!
AI技術を使って人物の動画や音声を別の人物に合成、本人が話したり、動いたりしているように見えるニセ映像などを「ディープフェイク」という。韓国ではこの技術が悪用され、性被害が続出! 国が規制に乗り出す事態になった。 【写真】「BLACKPINK」リサの顔を無断で使用したフェイク動画 日本でも徐々に広がりつつあるディープフェイクポルノの実態は? "職人"にいろいろ聞いた! ■「ディープフェイク」が特殊詐欺にも使われる 前澤友作氏や堀江貴文氏ら著名人の名前を利用して投資を呼びかける偽広告がSNS上で話題になったが、お隣の韓国では、その上をいく大胆な手口が登場している。 「収益金の一部が寄付されていることに感謝しています」 スーツにネクタイを着けた人気俳優のチョ・インソンは、いかにも誠実そうにカメラに向かって呼びかける。これはYouTubeなどに投稿された投資会社の広告だ。 しかし、動画に映し出された人物はチョ本人ではない。これは、生成AIを利用して複数の動画や画像、音声などを合成する技術「ディープフェイク」によって制作されたフェイク動画だ。 この技術を使うことによって、人物が映っている画像や動画の顔などを差し替えることができる。中でも動画に関しては素材となった顔の表情などを生成AIが学習し、その練度によっては本物が動き、話していると見まがうほど"自然な"動画になる。 韓国在住のジャーナリスト、ノ・ミンハ氏は言う。 「動画が出回ったのは2023年末です。動画には女優のソン・ヘギョも登場しますが、これももちろんディープフェイクによるもの。動画の内容を信じ、1億6000万ウォン(約1800万円)をだまし取られた人もいるそうです」 ディープフェイクで芸能人を広告に利用したケースは、ほかにもある。 「8月頃、ガールズグループBLACKPINKのリサがオンラインカジノを紹介する動画がTikTokなどで拡散されました。韓国国外にサーバーを置く違法サイトの会員募集のための釣り広告ですが、あまりに本人そっくりなので、だまされた人もいるようです」(ノ氏、以下同) 韓国では音声をAIで生成した「ディープボイス」を利用した特殊詐欺も横行している。 「犯人はまずターゲットに電話をかけ、相手の『もしもし』の声を録音します。そして、その音声をAIが学習し、本人そっくりの声を生成、ターゲットの親族や知人に電話で『お金が必要だから送金して』などと言う。そうして本人を装い、金をだまし取るのです」