生成AIのバイアス・差別と訴訟リスク、Anthropicが大規模言語モデルの差別抑制で効果的な対策を公開
AIによる差別と訴訟リスク
広告コピーやSEO記事などマーケティング領域での活用が増えている生成AIだが、この先、活用範囲は拡大する見込みだ。たとえば、賃貸住宅の入居審査、ローン審査、保釈審査、就職インタビュー合否などの重要決定事項で活用されるシナリオも想定されている。 しかし現時点では、大規模言語モデルを重要決定事項で利用することにはさまざまなリスクが伴うため推奨されていない。 特に米国においては、重要決定事項でのAI利用には訴訟リスクが伴うため、慎重なアプローチが求められる。訴訟に発展する理由は、AIが差別的なアウトプットを生成してしまい、それがいくつかの法律に抵触する可能性があるからだ。 2023年1月、米司法省ウェブサイトに「Louis et al. v. SafeRent et al. (D. Mass.)」という訴訟が掲載された。これは、AIアルゴリズムによるスクリーニング結果が差別的なものであり、米フェアハウジング法(FHA)に違反した可能性を問う訴訟だ。原告であるマリー・ルイス氏とモニカ・ダグラス氏は、家賃の一部を住宅券(Housing Voucher)で支払う黒人の賃貸住宅申請者。住宅券とは、米国連邦住宅助成プログラムの一環で実施されている低所得世帯向けの家賃補助プログラムとなる。 この2人の原告は、賃貸住宅の申し込みを行っていたが、AIベースのアルゴリズムで稼働している「SafeRent」と呼ばれる評価システムで十分なスコアを獲得できず申請が拒否されたという。原告側は、SafeRentの評価システムがクレジット履歴や住宅に関連しない債務など、黒人やヒスパニックの申請者に不利になるデータの影響を受けており、したがって評価結果も違法なものであると主張している。 この裁判は、AIやアルゴリズムに基づくスクリーニングツールの使用が特定人口グループに対して不公平な影響を及ぼす可能性に関する重要な法的議論を提起したとして、その進退が注目されていたが、2023年7月26日に行われた裁判で、被告(SafeRent)による棄却動議が却下され、さらに注目を集めている。 つまりSafeRentは、原告の主張が法的に十分な根拠を持っておらず、裁判を続ける必要性がないと主張(裁判の棄却を要請)していたが、裁判所がSafeRentの主張を退けたことで、原告の主張がフェアハウジング法に基づく妥当なものであると判断されたことになる。この裁定により、原告による訴訟根拠が確認されたことになり、AI企業にとっては注目せざるを得ないものとなっている。