“自分の声”が悪用される? 「フェイクボイス」で振り込め詐欺 アメリカで年間15億円の被害 【#みんなのギモン】
■「フェイクボイス」で本当にだませるのか? 日テレスタッフで実験
次に別のやり方でも実験しました。 まず、取材した小野解説委員の声をネット上の動画からAIに学習させた上で、協力いただいたNABLASの滝創一朗さんが、小野解説委員の口調をまねてセリフを吹き込みます。 滝さんが小野解説委員に似た口調で「調査報道班の小野です。折り入って相談したいことがあるんですけど」というセリフを吹き込むと、即座に小野解説委員の声に変換されました。 そして、AIが生成した小野解説委員の「フェイクボイス」を使って、日本テレビのスタッフに電話をしてみました。相手が電話に出たら“ニセの声”の再生ボタンを押します。 結果は―― AI(小野解説委員のフェイクボイス) 「調査報道班の小野です」 電話に出たスタッフ 「お疲れさまです」 AI(小野解説委員のフェイクボイス) 「折り入って相談したいことがあるんですけど」 電話に出たスタッフ 「はい」 AI(小野解説委員のフェイクボイス) 「このあとそっちに行っていいですか」 電話に出たスタッフ 「はい大丈夫です! お待ちしています」 AI(小野解説委員のフェイクボイス) 「ではのちほど」 その後、電話に出たスタッフに“ニセの音声”だと種明かししました。 ――実は生成AIってわかりました? 電話に出たスタッフ 「え? いまの小野さんの電話? わかりませんでした。普通に会話しましたけど、私」 ――つくりものなんです 電話に出たスタッフ 「……うそでしょ」 電話に出たスタッフは小野解説委員と電話で話しているものだと見事にだまされていました。これがAIの怖さでもあります。
■アメリカでは振り込め詐欺が多発 娘の「フェイクボイス」で身代金の要求も
そこで次のポイントは「相次ぐ悪用 どう防ぐ?」です。 みなさんに気をつけていただきたいのは、YouTubeやTikTokなどにSNS上に自分や子どもの顔と声を投稿していると、それをもとに“ニセの声”を作られて悪用されかねません。 例えば振り込め詐欺。アメリカでは身内や知人にそっくりな声で電話かかってきて、だまされてお金取られる被害がすでに多発していて、ワシントン・ポストによれば、被害の総額が年間15億円になるといいます。 アメリカアリゾナ州では、母親が電話に出たら、15才の娘そっくりの声で「ママ」と泣き叫ぶ声が聞こえ、直後に男が身代金を要求することが起きました。実際には、娘は誘拐されていないことがわかって事なきを得ましたが、これもAIのニセ物の声と見られています。