G7、AI初の包括ルール 偽情報拡散、利用者も責任
先進7カ国(G7)は1日、オンラインでデジタル・技術相会合を開き、生成人工知能(AI)の包括的な対策を盛り込んだ初の国際ルールの取りまとめに向けて議論した。具体的なルールについて合意する見込み。ルールにはAI開発者や利用者といった「全ての関係者」の責務を定め、利用者には偽情報の拡散などリスクへの認識を高めた上で活用するよう促す見通しだ。ルール作りは日本が主導する枠組み「広島AIプロセス」で議論してきた。今月上旬にも首脳会合をオンラインで開き、最終合意を目指す。 国際ルールは、AIの開発者や利用者など関係者を対象とする「指針」と、開発者が守るべき具体的な取り組みを示す「行動規範」からなる。開発者だけでなく、実際に利用する人にも責任があるとの認識から対象を幅広く設定した。 指針は12項目あり、個人情報や知的財産を保護することや、利用者がAIの脆弱性を発見した場合に開発者などと情報を共有することを求める。