広がるAI使った性的偽画像被害、狙われる卒アルの個人写真 載せない学校増える可能性も
卒業アルバム(卒アル)の写真などを生成人工知能(AI)で性的な画像や動画に加工する「ディープフェイクポルノ」の被害が国内外で広がっている。特に卒アルに掲載された生徒の〝個人写真〟が加工素材として狙われ、SNSなどで拡散されるケースが目立つ。少子高齢化で卒アルへの個人写真掲載が定番化している中、こうした事態を受けて、載せない学校が増える可能性も出てきた。 【写真】ユーチューブに公開された生成AIで作成・加工されたとみられる女性の動画 ■求められる流出対策 「卒アルは(生徒の在学を証明するツールでもあり)、卒業生の個人写真を載せてこそ意味がある」 東京都葛飾区で50年以上、卒アル制作を担ってきたキョーコロの柏木和也取締役はこう強調する。現状、同社と取り引のある学校では卒アルに個人写真の掲載を取りやめる動きは顕在化していないと話す。 ただ、個人情報流出の不安に加え、不登校の生徒が増えていることもあり、地域や学校によっては卒アルに個人写真の掲載を取りやめる動きもにわかに散見されるという。 同社にも、卒アルからの個人情報の流出対策を求める声は増えている。抜本的な対策は見いだせておらず、柏木氏は「卒アルは個人情報を含むものという意識を持ってもらうため、取り扱いの注意を喚起する紙を同封するなどの提案くらいしかできていない」と頭を抱える。 ■紙の卒アルから流出防げず 技術的な対策も難しい。写真販売システムを運営するITベンチャー「エグゼック」(東京)の山中淑史取締役は、「デジタル画像ならば、不正コピーを防ぐ『電子透かし』の利用やパスワード管理などで一定程度流出を防ぐ方法はあるが、製本された紙の卒アルからスキャンされた画像の流出は防ぎようがない」と説明。「紙幣に使われているようなコピー防止機能を卒アルに施す手法も考えられるが、コスト面を考えると現実的ではない」と指摘する。 同社は生徒の顔をAIで選別する技術を活用し、卒アルに登場する生徒の回数調整を効率化するサービスを提供している。山中氏は「AIの活用はさまざまな面で大きな恩恵を与える一方で、同じくらい悪用されるリスクもある。使い方はモラルに依存する部分が大きすぎる」と警鐘を鳴らす。 ■4年間で被害は5・5倍に