「進化したAIに人間が“道連れ”にされて滅ぶ」可能性も? AI開発の競争と安全性を考える
◼️AIアライメントの難しさ
そこで重要になるのが、「AIアライメント(人間の価値観や意図に沿って動くようAIを調教・制御する技術)」だ。 山川氏は「技術的には色々と頑張れるところがある。たとえば初期段階で出来るだけ人間に従うようにする。だが、その場合でも『どの人間に合わせるか』が非常に難しい問題で、なぜなら組織・文化によってアラインメントしたい目標・意図が異なるからだ。さらに、そんなAIアラインメントの技術があっても、使ってくれないとどうしようもないため、ガバナンスも重要なのだ。少なくとも国連などの広い世界ではそれらを共有していこうという動きになってきているが、全ての国が同じようなガバナンスを受け入れるわけではない。緊急度が増してきている中で、よりガバナンスの重要度が高まっている」と懸念を示した。 アメリカ、中国というAI分野でトップを走る2つの国の協議について山川氏は 「基本的にAIは知能だが、知能は力であって経済力や軍事力にもなる。そのため、抑えておくことは難しい。そういう状況において、全体としては人類の生存なども含めた目標はあるが、やはり個別的にはどんなに危険なゴールであっても進んでいってしまう。『廊下を走っちゃいけません』と言われても止まったら(競争相手に)負ける。そんな状況なのだ」と説明した。 そして日本の取るべき立場としては「日本は技術的にはどうしても遅れているため、開発を進めていく環境を作り、『レースに入る』ことが重要だ。その上で、世界に向けて情報発信を行い、指導力を発揮していけるとベターだ」と提言した。 琉球大学教授の玉木絵美氏は「人間より知能が高くなる可能性があると制限を設けようとしても抜け漏れが発生するかもしれない。『ここまでは大丈夫』とAIに制限の範囲をもたせても、ちょっとした抜けによって違うところで脅威になるかもしれない。さらに閾値が各国で違うところは足並みを揃えていかなければならない。一方で閾値を厳しくしてしまうと、もしかしたら気候変動の対応や世界的な課題解決の制限になってしまう可能性もある。そのため、AIが持つ利便性や問題解決能力を最大限に発揮しながら、人類の脅威にならないような閾値を協議していくことが急務だ」と強調した。