“自分の声”が悪用される? 「フェイクボイス」で振り込め詐欺 アメリカで年間15億円の被害 【#みんなのギモン】
日テレNEWS NNN
イスラム組織「ハマス」が、イスラエルに襲撃した瞬間としてある映像をSNSに投稿しました。映像では多くのパラグライダーが空から降りてきていますが、実は「フェイク動画」です。ロイター通信によると、エジプト・カイロで撮影されたものだといいます。衝突が激しくなるにともなって、旧Twitterの「X」では「フェイク動画」が複数確認されているといいます。
人々をだますこうしたフェイク、実はどんどん巧妙になってきています。 13日のギモンは「自分の声が勝手に悪用され、犯罪に使われてしまうかも」という話です。今年4月、中国でこんな事件がありました。福建省でIT企業を経営する男性のもとに友人からビデオ電話がかかってきました。友人が言うには「入札に参加していて430万元(約8500万円)の保証金が必要なんだ。振り込んでくれないか」とのことでした。 男性は指定された口座にお金を振り込み、友人に「振り込んだよ」とメッセージを送りました。すると、友人の返信は「?」…なんのこと? そんなお願いしてないと。ビデオ通話の相手は、顔も声もAIが作り出したフェイクだったらしく、男性は完全にだまされたそうです。 「フェイク画像」が出回っているというのはよく聞きますが、「フェイクボイス」というのもあります。そこに注目してみました。 ◇ニセの声 どう作る? ◇相次ぐ悪用 どう防ぐ?
■本当に似ている? 「フェイクボイス」わずか7秒ほどで生成
実際に「news every.」の鈴江キャスターの声で「フェイクボイス」を作ってみました。AIで生成した「今夜も『news zero』をご覧いただきありがとうございました」という「フェイクボイス」を鈴江キャスター自身に聞いてもらうと、“若干違和感があるものの、しゃべり始めの部分などが似ていた”といいます。 今回、特別に協力していただいたのは、AI総合研究所の「NABLAS」です。普段は「フェイク動画」などを見つけて防ぐ取り組みを行っている企業ですが、どうやってフェイクが作られているのかお願いして見せてもらいました。 まずネットにアップされている「news every.」の動画から鈴江キャスターの声を見つけて、AIに学習させました。7秒ほどあれば十分だといいます。 次にAIにしゃべらせたい内容をパソコンのキーボードでシステムに打ち込むと、わずか10秒ほどで「今夜も『news zero』をご覧いただきありがとうございました。私の声をまねるなんてどういうことですか?」という「フェイクボイス」ができあがりました。