【AIによる問題発言】差別の助長が繰り返されるも、規制が困難な理由とは
2024年10月、ノーベル物理学賞に続き、化学賞でも人工知能(AI)関連分野の受賞が決まりました。いまや生成AIの登場は社会に大きな変化をもたらし、私たちはその利便性を享受しています。しかしその一方で、「学習型のチャットボットが差別的発言を繰り返す」「採用人事で男性に優位な判定を下す」「著作物を無断で学習データとして読み込む」「偽情報の生成・拡散が簡単に行われる」「膨大なエネルギー消費による環境破壊」など、生成AI社会に潜む倫理的な課題は後を絶ちません。 私たちは生成AI技術を通して、知らず知らずのうちに大規模な搾取に加担してしまっているのでしょうか。また、これからの社会で求められる倫理とはどのようなものなのでしょうか。本コラムでは生成AIが抱える問題点に触れながら、これからの社会に必要な「倫理的創造性」について迫ります。 【図表】センシティブまたは回答禁止プロンプトへの誤った動作の確率 *本記事は青山学院大学准教授の河島茂生氏の著書『生成AI社会 無秩序な創造性から倫理的創造性へ』(ウェッジ)の一部を抜粋・編集したものです。 連載一覧はこちらから ほかの技術と同じく、生成AIも倫理的問題を引き起こしてきました。 ChatGPTを開発・運営しているOpenAIは、リスクやセキュリティ、安全性、経済、法、教育、健康、核リスク、公平性、誤情報・偽情報の専門家50人以上の協力を得て、有害なコンテンツの生成やハルシネーション (幻覚、つまりデタラメを出力すること) などについて議論して、リスクを抑えようとしています(*1)。 OpenAIにかぎらず、最近のテクニカル・レポートは、内容のほとんどがAIガバナンスの話になっており、生成AIの社会的影響の大きさやガバナンスの難しさがうかがえます。 いろいろな懸念があります。たとえば、生成AIに個人情報(特に要配慮個人情報および未成年の個人情報)や企業の社外秘の情報を入力すると、学習データに利用されたり誤って別の人に出力されたりする危険性があります。 他社と秘密保持契約を結んだ内容を生成AIに入力してしまうと、契約違反になってしまいますので、入力する場合は他社や生成AI開発企業との間で契約し直したり、新たに契約したりすることが必要になります。 ほかの技術でも同様に、機密情報は厳格に扱うべきなのですが、特に生成AIの場合は高い機密性のある情報を外部に「送信」しているという感覚をもちにくいため、より一層気をつける必要があります。 また、GDPR(General Data Protection Regulation:EU一般データ保護規則)で定められた消去する権利(忘れられる権利)のように、求めに応じて生成AIの学習データから指定のデータを削除してもらえるかについても心配する声があります。 *1 OpenAI (2023) “GPT-4 Technical Report”(accessed 2024-05-31)