AIにおける「規制するリスク」と「規制しないリスク」 それぞれの難しさ
東京大学先端科学技術研究センター特任講師の井形彬が2月6日、ニッポン放送「新行市佳のOK! Cozy up!」に出演。「AIの安全性を巡る標準化」について解説した。
「AIの安全性を巡る標準化」
AI技術の急速な発展に対する期待が高まっている一方で、AIによる無断学習や画像生成における著作権の問題、さらには個人情報や機密情報の取り扱いなど、AI技術に関わる制度的、法律的、そして倫理的な課題への対応の遅れが指摘されている。 新行)AI技術の問題について、2月7日に国際シンポジウム「AIの安全性を巡る標準化:リスク・機会・国際協力」が開催されます。このシンポジウムは井形彬さんの東京大学先端科学技術研究センター経済安保プログラムと、駐日英国大使館による共同開催で、イギリスのリンディ・キャメロン国家サイバーセキュリティセンター長官も出席されるということです。 井形)こちらは共催に加えて、後援として外務省、サイバーセキュリティ戦略本部、慶應義塾大学も入っていただいている、かなり大掛かりなシンポジウムです。いま各国で「AIに対する規制をどうするか」が大きな課題になっています。それを日本国内だけで議論するのではなく、国際的に一緒に相談しながら話す場が必要だと思い、今回のシンポジウムを企画しました。
イギリスで「AI安全研究所」が発足
新行)イギリスでは2023年11月に「AI安全研究所」が発足したそうです。 井形)AIにはリスクがありますが、それをどのようにバランスするかが重要です。そのような問題を考える研究所として、イギリスに「AI安全研究所」ができました。日本でも似たようなものをつくる必要があると、2023年の段階から自民党のホワイトペーパーで議論されています。実際に2024年につくる方向で動いています。
AIを規制することも、しないこともそれぞれリスクがある
新行)AIは悪用されると危ないけれど、使い方によっては非常に便利なイメージもあります。そのバランスを考える必要がありますか? 井形)最近ではChatGPTをはじめ、AIでいろいろなことができるという評価がある反面、誤用されると危ないという、双方のリスクが見えてきています。難しいのは、AIを規制しても、逆に規制しなくても、それぞれリスクがあるということです。「規制しないリスク」の例としては、AIを使って偽情報が氾濫する可能性が出てくる。実際に「フェイクニュース」や、「ディープフェイク」と呼ばれていますが、有名な政治家が言ってもいないことを、あたかも言ったようにつくられた動画が流れてしまう。そのため、「偽情報は危ないので規制する必要がある」という側面があります。