AI規制法、先陣を切った欧州は何を禁じた?中国は政府批判の封じ込め狙い、日本はガイドラインで法的拘束力なし
人工知能(Artificial Intelligence : AI)に関するニュースを聞かない日がありません。とくに生成AIの急速な発展に伴い、虚偽情報の創出・拡散による負の影響がこれまでとは段違いで危険視される状況になってきました。そんななか、AIを規制しようという各国の動きも急ピッチで進んでいます。先頭を走る欧州連合(EU)は今年3月、世界初となる包括的な「AI規制法」を成立させました。この法律をひも解きながら、AIと規制の最前線を専門記者グループのフロントラインプレスがやさしく解説します。 【図】欧州連合によるAI規制法の枠組み (フロントラインプレス) ■ 自由と民主主義を守るために EUの政策や方針を議論する欧州議会は3月13日、フランス東部のストラスブールで本会議を開き、AI(Artificial Intelligence)の包括的な規制の枠組み規則(AI規制法)を賛成多数で可決しました。賛成523人、反対46人。大差でAI規制法が承認された瞬間、議場は大きな拍手に包まれました。 2021年4月に法案が公表されてから可決まで、ちょうど3年。このわずかの期間に、「ChatGPT」に代表される生成AI (Generative AI)が国際社会を席巻しました。コンピューターが自ら学習し、その成果によってコンピューターが新たなコンテンツを創出することが当たり前になってきたのです。 こうした動きに対し、自由と民主主義、人権擁護という西側諸国に共通する価値観に立脚し、社会の混乱や分断、紛争などの発火点にならないよう規制の枠組みを整えたいとEUは考えてきました。子どもや障がい者などの社会的弱者を危険にさらすようなAIも認めない方向を明確にしています。そうした人間優先をベースにした達成点の1つが今回の規制法です。 では、EUのAI規制法は何をどう禁じているのでしょうか。
■ 欧州が定めた4段階の危険度 EUのAI規制法は、使用目的や内容によってAIの危険度を4つのレベルに分類し、それぞれのレベルに応じた規制を設けました。 最も厳しいランクは「容認できないリスクを持つAI」で、これに該当するものは全面的に使用が禁止されます。 例えば、個人の行動を操作するもの、個々人の信用格付け(ソーシャルスコアリング)、年齢・障がい・経済状況など個人の弱みにつけ込むものなどが、このレベルに該当します。政治・宗教・思想・性的指向・人種など極めてセンシティブな個人の情報を利用して人々を分類するAI、インターネットや監視カメラからの顔画像の収集、職場・教育機関で人々の感情を認識するAIなども使用できません。 次のランクが「高リスクを持つAI」です。これに該当するAIは全面禁止ではありませんが、法の要件を厳格に満たしていなければなりません。教育機関での入学者選抜やクラス分け、職場での採用や評価などに使う場合、さらに従業員の行動監視・分析のためのAIなどが該当します。 「限定的なリスクのAI」では、透明性の確保のみが使用の条件となります。該当するのは生成AIを使用した動画や音声、チャットボットなどです。例えば、ディープフェイク技術を使用したコンテンツを提供する場合は、生成AIを使っていることを明示する必要が生じます。 「最小リスクのAI」では自主的な使用規範の作成などが求められます。ゲームなどにAIを組み込む場合が該当します。 一方、AIの基盤モデルを開発した企業に対しては、著作権を侵害していないかどうかを厳しく自己チェックし、AIの学習過程で著作権のあるコンテンツを使った場合などにはそのデータを開示する義務が生じます。 重い制裁金を課すのも、この規制法の目玉です。違反した事業者には、最大3500万ユーロ(約56億円)もしくは年間売上高の7%のどちらか高い方という巨額の制裁金が課せられます。 AI規制法の全面的な適用は2026年になる見込みです。EU全域で適用され、域内で活動する外国企業も対象。AIによるコンテンツをEU内で提供する場合も法の適用対象になるため、日本企業も無関係ではありません。