AIにおける「規制するリスク」と「規制しないリスク」 それぞれの難しさ
プラットフォーマーである民間企業でも明らかな偽情報を拡散させないような規制が必要
井形)もう1つ考えられるのは、情報拡散の場を提供している民間企業です。X(旧ツイッター)やFacebook、LinkedIn、Instagramなどのプラットフォーマーである民間企業が、「明らかにおかしい」という情報を特定したら、「その情報を拡散させないようにする」というような規制が必要になると思います。
半導体・AI・サステナブル技術における競争領域、協調領域、協力領域
新行)井形さんは1月30日に「日韓経済安保シンポジウム:半導体・AI・サステナブル技術」というシンポジウムも開催されています。こちらではどんな議論があったのでしょうか? 井形)ソウル大学で経済安全保障を専門とする教授の方々に来ていただき、半導体・AI・サステナブル技術という3つの大きな技術を見たとき、競争領域、協調領域、協力領域が、それぞれどこに当たるのかを議論しました。簡単に言うとこの順番と同じで、半導体はもちろん協力・協調できるところもあるのですが、どうしても競争領域も出てきてしまう。AIに関しては、共同研究できるかも知れないけれど、重要なのは「どのような規制をつくっていくか」で協調することです。それに対し、サステナブル関連の技術は、日本と韓国でかなり相互補完性がある部分なので、「協力領域はサステナブル技術なのではないか」ということを議論させていただきました。 新行)サステナブル技術というと、つまり持続可能な技術ということでしょうか? 井形)どうすれば同じエネルギーでより多くのものを生み出せるか、より環境負荷が低い状態でものを生産できるか、というようなことです。特にバイオテクノロジー分野だと、これから出てくるような新しい技術で、いろいろと協力できるのではないかということを議論しました。