「AIだけで過剰削除」「違法有害情報が氾濫」イスラエル・ハマス紛争、コンテンツ管理のバランスとは?
「AIだけで過剰削除していた」「違法コンテンツ流布を調査」――イスラエル・ハマス紛争の違法有害コンテンツ削除を巡り、大手ソーシャルメディア、メタとXの対応に注目が集まっている。
メタの監督委員会は12月19日、同紛争にかかわるインスタグラムとフェイスブックの2件の動画について、AIを使った自動システムで規約違反ではないのに「誤って削除した」との判断を示した。
監督委員会はその中で、イスラエル・ハマス紛争を受けて、メタが自動削除ツールの設定値を低く修正した上、人間の監督が不十分だったため、過剰削除のリスクがあった、と認定した。
一方でEUはその前日の18日、違法有害コンテンツへの対策の不十分さが指摘されてきたXに対する、正式の調査開始を発表した。
EUは8月から、違法有害コンテンツへの対策について超大規模プラットフォームに特に強い規制をかける「デジタルサービス法(DSA)」の適用を始めている。メタ、Xともにその対象になっている。
紛争の先行きが見えず、フェイクニュース(違法有害情報)も氾濫する中、プラットフォームのコンテンツモデレーション(管理)の「過剰削除」「氾濫」の両方に、厳しい目が向けられている。
●「公益性高い言論、誤って削除」
メタのコンテンツ管理の適否について答申を行う監督委員会は12月19日付で、インスタグラムにおけるイスラエル・ハマス紛争の動画の削除について、そのような判断を示した。
監督委員会が審査で取り上げた対象動画は2件だ。
このうちの1件はインスタグラムに投稿された。イスラエル軍が、地下にハマスの拠点があるとして攻撃を強めたガザのアル・シファ病院での、子どもを含む被害者の様子を写したものとされる。
この動画が、人間のチェックなしに自動削除され、削除への異議申し立ても、やはり人間がチェックせずに自動的に却下されていたという。
メタにおける自動モデレーションとは、すなわちAIによる有害コンテンツの判定と削除だ。
メタは、10月7日から始まったイスラエル・ハマス紛争をきっかけに、関連する違法有害コンテンツが急増したため、「暴力規定に違反するコンテンツを特定して削除する自動分類システム (分類器) の信頼度のしきい値を一時的に引き下げた」という。
監督委員会は、これにより「検出を回避できる可能性がある違反コンテンツや人間によるレビューの能力が限られている場合に、メタが違反コンテンツを削除できない可能性は減少したが、紛争に関連する違反ではないコンテンツを誤って削除する可能性も高まった」としている。
アル・シファ病院の動画削除は、まさにAI依存で人間不在、というケースだった。
もう1件の削除動画はフェイスブックに投稿されたものだ。10月7日のハマスによるイスラエルへの襲撃の中で、音楽フェスティバル「スーパーノヴァ」の会場から、オートバイで拉致される女性が「殺さないで」と懇願する様子が撮影されている。
同日、ハマスが人質として拉致した約240人の1人で、人質の恐怖を示す象徴的な動画として知られる。
監督委員会はこのような過剰な自動削除の措置について、「国際人権法および人道法に対する潜在的な違反の証拠を保存する責任もある」とも指摘している。
その上で、こう述べる。
この審査手続き入りが公表されたタイミングで、審査対象となった2件の削除動画は、再表示の措置が取られていたという。
●EUはXに対する本格調査
EUは12月18日、Xに対してデジタルサービス法(DSA)に基づく正式の調査手続きに入ったと発表している。
調査の焦点は「イスラエルに対するハマスのテロ攻撃についての、違法なコンテンツの流布」だ。
EUは、①コンテンツモデレーションのための態勢は適切か、②ボランティアユーザーによる投稿への背景情報提供の機能「コミュニティノート」が情報操作に対して効果があるか、③研究者に対する情報の透明性は担保されているか、④「ブルーチェック(認証マーク)」が欺瞞的デザインとして運用されていないか、といった点を調査するという。
具体的には、デジタルサービス法の34条(リスク評価)、35条(リスクの軽減)、16条(通知とアクションの仕組み)、25条(オンラインインターフェイスの設計と構成)、39条(オンライン広告の透明性の向上)、40条(データへのアクセスと検証)の違反の有無が焦点となる。
DSAの罰則(74条)では、最大でグローバルな売上高の6%に当たる制裁金が科されることになる。
Xは、2022年10月末にイーロン・マスク氏が買収して以降、8割に上る大規模リストラを実施。違法有害コンテンツへの対策の、大幅な後退が指摘されてきた。
EUは9月、DSAと連動するプラットフォームの自主ガイドライン「偽情報に関する行動規範」についての報告書でも、Xが偽情報(フェイクニュース)の発見率が最も高いと指摘していた(※発見率の2位はフェイスブック、3位はインスタグラムだった)。ただし、Xは5月にこの「行動規範」から離脱している。
EUはXに対して、イスラエル・ハマス紛争の開始から3日後の10月10日付で緊急書簡を送付。「EU内で違法なコンテンツや偽情報を広めるためにX/ツイッターが使用されている兆候がある」として、対応についての回答を要求するなど、姿勢を強めていた。
※参照:ハマス・イスラエル軍事衝突でフェイク氾濫、EUがXを叱り、Metaに警告した理由とは?(10/12/2023 新聞紙学的)
今回の正式調査入りは、11月3日付のDSA(42条)に基づく透明性報告や、10月12日付の情報提供要請(67条)への回答を踏まえたものだとしている。
マスク氏は、イスラエル・ハマス紛争開始の当初から、緊急書簡の送付を伝える欧州委員会理事のティエリー・ブルトン氏のX投稿に対して、「あなたがほのめかした違反をXでリストにして、一般の人々が確認できるようにしてください。メルシーボークー」と回答するといった対応を続けてきた。
今回も、正式調査開始を伝えるブルトン氏の投稿に対して、マスク氏はこう返信している。
●「どちら側で間違えるか」
ハーバード大学法科大学院助教、エヴリン・ドゥエク氏は、今回の紛争の2年前、2021年6月2日付の米ワイアードへの寄稿で、やはりイスラエル・パレスチナ紛争を巡るフェイスブックのコンテンツ削除について、そう指摘している。
今回のメタ監督委員会の指摘は、まさにAIによる「自動モデレーション」と人間不在のリスクが、クローズアップされた。
一方で、違法有害情報の氾濫に厳しい目を向けているのは、EUだけではない。
Xを舞台にした反ユダヤ主義的な投稿の拡散などをめぐり、大手広告主の相次ぐ離脱も拡大している。
Xへの広告出稿を一時停止する企業はアップル、IBM、ソニー、ディズニー、コムキャストなど、米国の広告出稿の7%を占める大手が足並みをそろえているという。
適切なコンテンツモデレーションと、削除結果の十分なチェック。社会インフラとしての巨大プラットフォームには、その両方が求められている。
(※2023年12月21日付「新聞紙学的」より加筆・修正のうえ転載)