「安全、安心、信頼できるAI」との共存を目指す議論進む G7、活用と規制の国際指針で合意
文部科学省は小中高校での生成AI活用について、利用法や注意点をまとめた指針を7月に公表した。グループ討論やプログラミング学習などでの有効な活用法を例示した一方、テストや作文での利用は不適切とした。教育専門家の間でも教育現場での利用についての評価は分かれ、批判的思考力や創造性を育む上ではマイナスと指摘する声も少なくない。
チャットGPTの普及と同時に生成AIへの期待と懸念が交錯し始め、欧州諸国からはいち早く規制の動きが出た。G7も事態を重視し、5月に日本が議長国になったG7首脳会議(広島サミット)では広島AIプロセスの創設が決まり、日本が主導して関連する国際会議を開くなど作業が進んだ。
「人権や人間中心主義尊重すべき」と明記
G7は12月1日にオンラインでデジタル・技術相会合を開催。広島AIプロセスに基づく国際指針を取りまとめて閣僚声明を採択した。会合には日本の総務省、経済産業省、デジタル庁のほか、経済協力開発機構(OECD)などの国際機関も参加した。この指針は6日の首脳会議で最終合意された。AIに関する包括的な国際指針ができたのは初めてだ。法的拘束力はないが、今後各国の活用と規制に関するルール作りに影響を与えるとみられる。
この国際指針は、開発者や制作者だけでなく、利用者を含めた「全てのAI関係者」を対象にしたのが最大の特徴だ。関係者を対象にした指針本体と、開発者が守るべき具体的な対策を盛り込んだ行動規範で構成されている。指針も行動規範も12項目で構成される。 指針本体は「安全、安心、信頼できるAIを世界に普及させることを目的とし、生成AIを含む最も高度なAIシステムを開発・利用する組織のための指針」と明記した。そして「人権、多様性、公平性、無差別、民主主義、人間中心主義を尊重すべき」とした。その上でAIに関するリスクを評価、低減するために適切な対策を実施することや、個人情報・知的財産の保護、悪用対策をとること、利用者がAI生成コンテンツであることが分かるような技術を開発することなどを求めている。