欧州がAI法の大枠で合意、一方域内AIスタートアップへの支援拡大で米国へのキャッチアップを模索
欧州、AI法の大枠で合意
生成AI市場は、OpenAI、Anthropic、マイクロソフト、グーグル、メタなど米国企業が圧倒的なシェアを有しているが、市場のルール/規制づくりでは欧州が存在感を強めており、今後AI世界市場がどのように形成されるのかを考える上では、欧州の動向も無視できないものとなっている。 直近注目されているのは2023年12月の「歴史的」と称される欧州におけるAI規制に関する合意だ。 2023年12月8日、長らく議論されてきた欧州連合(EU)のAI法に関して、欧州議会、欧州委員会、および理事会の間での合意が達成され、トリローグ(三者協議)プロセスが終了したのだ。EUでは立法案に対して、これら三者の間で協議が行われ、次のステップに進むには、三者間の合意が必須となる。トリローグプロセスの終了は、議論された問題に関して、すべての主要な交渉ポイントが解決され、合意文書が完成したことを意味する。 これまでの報道によると、EU AI法の大部分の文言については合意に達したが、今後数週間にわたり技術会議での議論が行われ、技術的な詳細が最終化される予定という。その後、EUの立法手続きに従い、EU議会の内部市場委員会(Internal Market Comittee)と市民の自由委員会(Civil Liberties Committee)が最終文書に対する投票を行う見込みだ。この最終文書への投票は、2024年1月末に予定されている。欧州議会での投票後20日後に、EU AI法に関する最終文書がEU公式官報に掲載される(2024年春予定)。 最終文書の具体的な内容はまだ分からないが、同法律はEU内の人々に影響を与えるすべてのAIシステムに適用されるとの見解が有力視されている。これにはEU市場にAIシステムを配置する企業、またEU内でそのシステムの出力が使用される企業が含まれるため、実質的に米国企業も含まれることになる。 EU AI法はリスクベースのアプローチを採用しており、AIシステムがどのリスク分類に該当するのかで、求められるコンプライアンスレベルが異なってくる。最新情報によるとリスクは、「禁止リスク(Prohibited Risk)」「高リスク(High Risk)」「限定的リスク(Limited Risk)」「最小リスク(Minimal Risk)」の4つに分類されている。 禁止リスクに分類されるのは、人間の行動操作を目的とするもの、ソーシャルスコアリング、予測型警察活動、遠隔生体認証、職場や学校における感情認識を行うAIシステムなど。これらは、一部法執行用途を除き明示的に禁止される。 一方、健康、安全、基本的人権に重大な危害をもたらす可能性を持つAIシステムは高リスクに分類される。たとえば、医療分野や交通・輸送分野のAIシステムが該当すると考えられる。医療分野では、病気の診断、治療計画の提案、病理画像の分析などがAIによって可能となっているが、これらは患者の健康と安全に直接的な影響を及ぼすため、高リスクと見なされる可能性が高い。交通・輸送でも自動運転車や流通制御などでAIを活用することが可能だが、これらも交通安全に大きな影響を及ぼすため、高リスクに分析される可能性がある。こうした高リスクのAIシステムに対しては、市場投入前に適合性評価の実施が求められる。 AI法に違反した場合、最も厳しいもので、世界全体の年間売上高の7%、または3,500万ユーロの罰金が課せられる。これは禁止リスクに関連する違反の場合で、ほとんどのケースでは年間売上高の3%、または1,500万ユーロの罰金が適用されるとみられている。このほか、情報提供に虚偽があった場合、年間売上高の1.5%、または750万ユーロの罰金が課せられる。