芸能人の被害は200人以上か!? 一般人の顔もポルノに…深刻化するディープフェイク問題、日本で規制が進まないワケ
日本で違法となっている児童ポルノ、ディープフェイクの場合は処罰が難しいワケ
日本では児童ポルノ禁止法によって、18歳未満の児童のわいせつな写真や動画を製作・所持・提供することなどが処罰の対象となっているが、こうした児童ポルノのディープフェイクに関しては処罰の対象にならないのだろうか。 「現状、生成AIによって作られた動画像は、たとえ未成年のように見える被写体であったとしても処罰することが難しいんです。 理由としては、アニメ等の創作物は、未成年のように見えるものであったとしても、児童ポルノ禁止法が適用されないからです。マンガやアニメのような創作物で児童のように見えるものを規制するべきかについては、賛否両論があります。 また、実在する女性の顔を、生成AIで作成した未成年者を思わせる被写体のわいせつな動画と合成させても、その実在する女性が成人であれば児童には該当しないので、児童ポルノ禁止法が適用されず、処罰できないということになるのです」 やはり現状、性犯罪のディープフェイクを処罰できる唯一の方法は、被害者が直接訴えることしかないということだ。しかし、こうした犯罪の逃げ道を放っておくことは被害の拡大を助長するだろう。現段階で何か対策は講じられているのだろうか。 「児童ポルノ禁止法を、生成AIによって作成したものや、アニメ、コミックなどの範囲にまで適用するかどうかは現在議論の段階なのですが、日本において『表現の自由』は憲法で定められている国民の大事な権利であり、これを軽々しく制限することができないということが、なかなか規制が進まない要因の1つになっています。 こうした背景から、今後は動画像の製作者を罰するよりも、生成AIを運営する事業者に対して、AIでポルノを作成できないよう自主規制させる可能性のほうが高いと予想しています。 実際、ChatGPTなどの生成AIでは、爆弾の作成方法や殺人の方法など、犯罪につながるような質問を聞かれても答えないように自主的に規制されています。こうした方法でポルノによる被害も減らしていくことができるのではないでしょうか」