第1回:「責任あるAI」の構築を先導するのに欠かせないグローバルな視点
はじめに 急速に進化するAI技術は、世界中の多くの産業で活用されています。さまざまな用途がある一方で、個人情報の漏えいや誤った情報の提供、詐欺などの悪用、偏ったデータによる多様性の欠如といった懸念も存在します。 本連載では、AIの開発と導入について責任を持って進めるための方法を紹介します。 「責任あるAI」構築を先導するのに不可欠なグローバルな視点 AIがもたらす空前の機会と課題に対処するために、世界各地でさまざまな取り組みが行われていますが、多くは個別に進められているのが実態です。こうした中で、2024年5月に韓国と英国が共催した「AIソウルサミット」では、2023年11月に英国で開催された「AI安全性サミット」での成果を踏まえ、安全性の確保を含むAIの責任ある利用について国際的な議論が行われ、AIの持続可能な発展と利用を実現するための方法が模索されました。 これら2つのサミットは、AIのリスクを軽減しつつ、その利益を最大化するための「責任あるAI」の開発とガバナンスに関する論議の方向性を示す助けとなりました。しかし、なぜこのような国際フォーラムが私たちにとって重要なのでしょうか? 真に多様であるべき 「AI安全性サミット」のような国際的な機会は、政策立案者、業界のリーダー、学識者が世界中から集まる重要な場となります。特に、これらのイベントは多様な視点を融合し、AIガバナンスに対する包括的なアプローチの形成を促します。英国と韓国で開催された2つのサミットにより、さまざまな国際的な意見や地域グループがAIに関する議論に参加する機会が提供されました。多国間で視点をまとめるということは、AIの複雑な課題に取り組む共同戦線が必要であることを意味します。これは、シリコンバレーに見られる一方的な計画とは異なります。 しかし、これらの議論には、まだ十分に反映されていない地域やセクターの意見があります。AIガバナンスは、それに影響を受けるさまざまなコミュニティーの状況を反映し、公平である必要があります。これは、多様な参加者を招くだけでなく、彼らの意見を聞き、政策決定に反映させることを意味します。また、政府ばかりでなく企業にも同様の責任があります。 AIアジア太平洋研究所の共同設立者兼エグゼクティブ・ディレクターとして、責任あるAIの開発と導入を通じて地域経済の強化に取り組んでいる筆者は、AIが効果的に活用された際の変革の可能性を目の当たりにしてきました。さまざまな地域から得られる経験と洞察の多様性は、強力で柔軟な政策を策定する上で非常に貴重です。 AIガバナンスへの先見的なアプローチ AIガバナンスにおいて進展が見られる一方で、政策の議論には依然として多国間の大きなギャップがあります。また、現在の枠組みは、急速に進化する状況に適応する柔軟性に欠けることが多いです。生成AIの最近のブレークスルーを受けて、政府、産業、大学がこの技術に対する規制と注意喚起の動きを見せています。潜在的なリスクが利益を上回っていると認識されたのです。将来の課題と機会を予測し、方策をあらかじめ積極的に講じる必要があります。 政府レベルで「ChatGPT」に対する規制案を設けている例として、中国政府が挙げられます。これは、政府の見解とは異なる回答が生成されることが一因とされています。また、イタリアは個人情報保護の観点から、2023年から一時的に使用を禁止しています。 米国では、Biden政権が2023年10月に「AIの安心、安全で信頼できる開発と利用に関する大統領令」を発令しました。この大統領令は、AIの安全性とセキュリティーの新基準、プライバシー保護、公平性と公民権の推進、消費者・患者・学生の権利保護、労働者の支援、イノベーションと競争の促進など、AIが労働市場に与える影響に関する調査を義務付けるものです。さらに、広島AIプロセスに関するG7首脳声明では、AIの開発に伴うリスクや脅威などに対する行動規範が示されています。 日本では2024年4月に、総務省と経済産業省が「AI事業者ガイドライン」を公開しましたが、さまざまな企業もそれぞれのAI倫理原則に該当するものを策定しています。 多くの大学も声明を発表しており、ChatGPTの賛否について言及しています。これらの声明では、「技術に関する浅薄な理解に基づく安易な利用は、人間の主体性を阻害」「明らかな誤情報が含まれるリスク」「レポートや論文作成における不正行為のほか、著作権や意匠権上の問題が絡む法的リスク」などが指摘されています。また、学内での使用を許可するための条件も示されています。