アップル、iPhoneの児童ポルノ検知で批判受け火消しに走る 責任者、「誤解を招いた原因」釈明
米アップルが先ごろ発表した児童ポルノ対策を巡って懸念や批判が広がっており、同社は釈明に追われている。
「警告された写真のみを監視対象に」
ロイターによると、アップルは、複数の国のクリアリングハウス(情報センター)から警告された写真のみを対象にすると述べた。
米ウォール・ストリート・ジャーナルによると、アップルのソフトウエアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は同紙とのインタビューで、「当社は問題が報告されている画像の特徴のみを照合するのであって、ユーザーが、風呂に入っている自分の子どもの写真を持っているどうかを分析するようなことはしない。さらに言えば、ユーザーが他の種類のポルノ画像を持っているかといったことも調べない」と釈明した。
プライバシー侵害や市民への監視強化の恐れ
アップルは2021年8月5日、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を抑制する目的で、同社製機器のソフトウエアに児童ポルノ検知機能を導入すると発表した。
iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、データベースと照合し問題のある写真を特定する。システムが対象とされる写真を約30枚以上検知すると、アップルの担当者が確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に通報する。
この取り組みには一定の評価があるものの、プライバシー侵害や市民への監視強化につながる恐れを懸念する意見も多いと欧米メディアは報じている。
アップルの説明によると、この機能はユーザーの機器にある写真をスキャンするものではない。クラウドサービス上に保存された写真を広範囲にスキャンするものでもない。クラウドにアップロードする際に端末側のソフトウエアで検知する。つまり、端末内を覗き見るものではなく、クラウドサービスを利用しない人には何ら影響が及ばないという。
「端末のソフトウエアで処理するため、もしアップルがソフトウエアに変更を加え、それに脆弱(ぜいじゃく)性があったとしても、そのことが分かる。外部の専門家が監視できる仕組みだ」とフェデリギ氏は述べた。
一方で、プライバシー擁護団体などは、一部の国の抑圧的な政府が市民の政治的な主張を監視するために利用する恐れがあると指摘している。
アップルはこうした懸念を払拭するため、8月8日にウェブサイトに文書を公開。「当社はそのような要求に一切応じない。この機能は、iCloudにアップロードされる児童ポルノを検知するためだけに開発した」と説明した(図1)。
21年9月3日には、計画を延期すると発表。声明で「顧客や権利擁護団体、研究者などの意見を基に、今後数カ月さらに時間をかけて情報収集や改善に取り組むことを決めた」と述べた。
フェデリギ氏「伝えたかったことがごちゃ混ぜになった」
アップルは8月に児童ポルノ対策についてもう1つの機能を同時に発表したが、それが混乱を招いた可能性があるとウォール・ストリート・ジャーナルは報じている。
もう1つとは、メッセージサービス「iMessage(アイメッセージ)」で親が子供を守る機能で、性的描写の写真の送信や、受信時の閲覧を防止するものだ。例えば、子供が問題のある写真を送信しようとしたり、受信したりした場合、ソフトウエアが端末上のそれら写真を検知して非表示にする。そのうえで、「もしこれを表示したら、保護者に通知します」などと警告を出す。その際にアップルには通知されない。
アップルのフェデリギ氏は、新機能の発表に際し同社につまずきがあったことを認めた。「当社が伝えたかったことがごちゃ混ぜになった。今思えば、2つの機能を同時に発表したことが誤解を招いた原因。利用者が普段やりとりするメッセージには、これからも何も起きない」と述べた。
だが、それでも専門家はアップルの技術に懸念を抱いている。米ジョンズ・ホプキンズ大学のグリーン准教授は、アップルが採用しているアルゴリズムは画像を誤認識する恐れがあると警告。
「アップルは他社に倣い、共有された写真のみをスキャンするべきだ。私的な写真はスキャンするべきではない」と指摘している。
- (このコラムは「JBpress Digital Innovation Review」2021年8月17日号に掲載された記事を基にその後の最新情報を加えて再編集したものです)