米アップルが先ごろ発表した、スマートフォン「iPhone」などの同社製機器に導入する児童ポルノ検知機能が物議を醸している。

全米行方不明/被搾取児童センターに報告

子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を防止する目的で導入するものだが、これがプライバシー侵害や市民への監視強化につながりかねないと、プライバシー擁護団体やテクノロジーの専門家などが懸念を示している。

アップルは2021年8月5日、年後半にリリースする基本ソフト(OS)にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにした

iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、当該写真を児童ポルノに関するデータベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。

新機能は米国のユーザーを対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれる、とした。

米CNBCによると、米企業は児童ポルノを全米行方不明/被搾取児童センターに報告することが義務付けられている。もしそうした違法画像を発見し、報告しなかった場合は30万ドル(約3300万円)の罰金が科される。

アップル「プライバシー保護保たれる」

アップルによると、この機能はユーザーの機器にある写真をすべてスキャンするものではない。他社のようなクラウドサービス上の写真を広範囲にスキャンするものでもない。「クラウドにアップロードする際に端末側で処理するため、プライバシー保護が保たれる」(同社)という。

アップルは8月8日にウェブサイトに文書を公開。「この機能は、iCloudにアップロードされる児童ポルノを検知するためだけに開発した」と説明。

この中で同社は、「これまでに、政府からプライバシー保護機能を緩めるように要求されたことがあったが、アップルは断固として拒否してきた」とも述べた。

だが、CNBCによるとプライバシー擁護団体などは、一部の国が新たな法律をつくり、市民の政治的な主張に関する写真を検閲するために利用する恐れがあると指摘している。

こうした懸念を払拭するため、アップルは21年9月3日に計画を延期すると発表。声明で「顧客や権利擁護団体、研究者などの意見を基に、今後数カ月さらに時間をかけて情報収集や改善に取り組むことを決めた」と述べた。具体的な導入時期については明らかにしていない。

「政府要求に屈しない」

米ウォール・ストリート・ジャーナルによると、19年12月に米海軍施設で起きた銃撃事件を受け、当時のウィリアム・バー米司法長官は、容疑者が所持していたiPhoneのロック解除をアップルに求めた。だが、同社は司法長官の要求に応じなかった。同社は15年12月にカリフォルニア州サンバーナーディノで起きた銃乱射事件の際もロック解除を拒否した経緯がある。

アップルによると、iPhoneのロックを解除するためには、暗号化されたデータへのアクセスを可能にする「バックドア(裏口)」という特別な仕組みを用意する必要がある。同社は「もし、バックドアを設ければ、何者かに悪用される。善人だけが利用できるバックドアというものは存在しないというのが我々の変わらぬ主張だ。結局は国家の安全が脅かされ、個人情報も危険にさらされることになる」と説明。iPhoneのロック解除に関して一貫して捜査当局の要請に応じない方針を示してきた。

「消費者の信頼裏切る行為」

だが英フィナンシャル・タイムズは、アップルが新たに導入する児童ポルノ検知機能は危険なほどにバックドアに近いと報じている。一部の国家が国民の締め付けに利用する恐れがあるという。

他方でCNBCの記事は、「機能の一部が、利用者の意思と関係なく、端末上で自動的に処理される点が問題だ」とする専門家の見解を伝えている。「利用者が購入した端末は、利用者が所有するものであり、利用者自身の意図で操作するべきもの。アップルの行為は消費者の信頼を裏切るものだ」といった批判も聞かれる。

  • (このコラムは「JBpress Digital Innovation Review」2021年8月11日号に掲載された記事を基にその後の最新情報を加えて再編集したものです)