「安全、安心、信頼できるAI」との共存を目指す議論進む G7、活用と規制の国際指針で合意
行動指針は、AIシステムの安全性や信頼性を向上させるために関連組織が情報共有し、社会に報告することや、生成AIが作成したコンテンツであることが分かるよう「電子透かし」などの技術開発を進めること、偏見や偽情報を防ぐための研究を優先的に実施することなどを盛り込んでいる。
欧米、日本が独自のルールづくり
G7首脳が国際指針で合意したことを受け、各国独自のルール作りも大詰めを迎えている。欧州連合(EU)はAIの倫理問題を重視し、規制の動きでは先行していた。ブリュッセル共同電によると、EUは12月9日に生成AIを含む包括的なAI規制法案について大筋で合意した。G7の国際指針は法的拘束力がないのに対し、EUの法案は制裁も盛り込み、強制力を持つという。
最終的に合意されれば、早ければ2026年に実施の見通しで、世界初の包括的AI規制となる。違反すると最も重いケースで3500万ユーロ(約55億円)か、年間売上高の7%という巨額の制裁金が科されるという。EUは米国や中国など同様にAI開発に力を入れると同時に、人権や民主主義に与える負の影響への懸念も強く、いち早く具体的な法的規制策をまとめた。
AIを規制する動きは世界的な傾向だ。バイデン米大統領は10月、安全保障に関わる影響が想定される高度なAI技術の開発企業に情報提供を義務付ける大統領令に署名した。英政府は11月初めに「AI安全サミット」を開催し、「AIの安全に関するブレッチリー宣言」を採択した。同サミットには岸田文雄首相もオンラインで参加し、宣言は日米中など28カ国とEUが合意。AIのリスクを想定し、悪用を防ぐため国際的連携を強める方針を確認している。
日本では政府のAI戦略会議を中心に、総務省や経済産業省などでAIの活用と規制策を検討してきた。政府は12月21日に同会議を開催し、AI関連事業者向けのガイドライン案を提示した。人権に対する配慮や偽情報・偽動画対策を求める10原則が柱で、G7の国際指針に沿った内容。2024年初めに一般から意見公募し、3月をめどに正式に指針を公表する。会議に出席した岸田首相は、AIの安全性評価の方法などを研究する研究所「AIセーフティー・インスティテュート」を、24年1月をめどに設立する方針を明らかにした。