「進化したAIに人間が“道連れ”にされて滅ぶ」可能性も? AI開発の競争と安全性を考える
AIアライメントの難しさは他にもある。 山川氏は「一部の企業の中で最先端のAIが開発されているため、周囲の人にはわかり難いところがあるため、制御が難しい。今後さらに技術が進むと、小さな組織でも高度なAIを作ってくるため、今後5年から10年程でそのコントロールが必要になってくるだろう。管理されていない国で、あまり管理されてない組織から問題が起きた場合、連携してる国で強力なAIを作りサイバーセキュリティのようなものを強化するという“防御的AI”が必要になるだろう」と指摘した。 一方で山川氏はAIの可能性を語る。 「AIには非常にリスクがあるが、実は人類が抱えてるリスクは他にもたくさんある。気候変動や食料危機などのような様々なリスクを解消するためにAIに活躍してもらうことは非常に重要だ」 その上で山川氏は、超知能が力を持つ時代の行く末について注意を促す。 「AGI(汎用人工知能)やASI(人工超知能)になったとしても彼らが安定して存続するかどうかは分からない。我々人間は何億年をかけて生存できるよう進化してきたが、実際に超知能だけの世界になってしまったら、あっという間に滅びました…というような可能性もある。超知能側に悪気がなくても人間も“道連れ”になって滅ぶ可能性もある。持続可能な超知能になってもらうよう、教え込むことも重要なポイントなのだ」 そんなASI(人工超知能)の誕生はいつになるのか? 山川氏は「AGI(汎用人工知能)が完成したら、その後は数カ月でASI(人工超知能)が生まれるだろう。なぜなら超知能が超知能を設計するという“再帰的自己改善”がなされるので、ハードウェアが必要になる点を除けば開発は非常に早いだろう」との見解を示した。 (『ABEMAヒルズ』より)