「進化したAIに人間が“道連れ”にされて滅ぶ」可能性も? AI開発の競争と安全性を考える
そしてヨーロッパでは、46カ国が加盟する欧州評議会がAIに関する初の国際条約を採択。9月に署名が予定されており、締約国はAIが人権や民主主義、法の支配といった基本的価値を損なわないよう適切な措置が求められる。 こうした国際的なルール作りにおいて、日本は主導的役割を担うことを目指す。岸田総理は5月上旬に行われたOECD閣僚理事会のイベントでAIの規律と活用の両立に向けた国際的枠組み作りへの協力を求めた。
OpenAI社のライク氏とサツキバー氏の退社についてAI研究者で全脳アーキテクチャ・イニシアティブ代表の山川宏氏は「サツキバー氏という技術面の中心人物が抜けることは、原爆開発においてオッペンハイマー氏が抜けたようなもの。この問題は、『今後の開発にも、これほどの存在の技術者が必要かどうか』という点に影響する」と指摘する。 Googleなどのライバル社の存在はOpenAIの焦りにつながっているのだろうか? 山川氏は「当然あると思う。そもそも、かなりのAI技術が公開されている中、それを使って追いつくことは必然であるため、1年半、もしくは2年ほどOpenAIがリードを保っていたことがむしろ奇跡的ですごいことだった」と分析した。 「ロボット三原則」のような安全のためのルール作りはAIにおいては難しいのだろうか? 山川氏は「元々ロボット3原則は『いかにロボットとの関係が難しいか』という問題提起だった。AIに関しては1950~60年代にコンピューターの父と言われるアラン・チューリングが『AIは人間に追いつくだろう』と言っていたし、2014年にはニック・ボストロムが著書『スーパーインテリジェンス』にて『非常に危険で壊滅的なリスクがあるだろう』と伝えている。つまり制御していく必要があるのだが、AI問題は環境問題のように“不都合な真実”であり『AIが人類を滅ぼしかねない』というリスクは口に出しづらい」と説明する。 さらに山川氏は「AIの危険性には3つポイントがある」と述べた。 「1つは汎用人工知能(AGI)。人間同士の場合、『ライバルにスポーツでは勝てるが勉強では負ける』といったことが起るが、人間はAGIに対して“全敗”してしまい、これでは制御は難しい。言ってみれば、上司が犬の知能、そして部下がアインシュタインの頭脳を持つようなものだ」 「もう1つは『知能爆発』という、AIがどんどん加速度的に頭が良くなること」 「最後は、実はロボット三原則の3つ目にも入る『AIそのものの生存の追求』だ。スチュワート・ラッセルが『コーヒーをサーブするには自分が壊れてはいけない』という例え話をしているが、『自分が壊れてはいけない』という点が強調されて突っ走ってしまう、あるいは人間が与えた目標が誤解されてしまうリスクもある。つまりロボット三原則のようなものは理想ではあるが、維持していくのはかなり難しいため、かなり危険であるということになる」