【後編】AIは人間の知能を超えるか?AGIは人類を滅ぼすのか? シンギュラリティを巡る最新議論
AGIは人類を滅ぼす?安全なAI開発に向けて
AGIが実現すると、その先にはどのような未来が開けるのだろうか? AIの研究者で作家のエリエーザー・ユドコウスキ―氏は、「AGIは人類を殺す」と、警告を発している。同氏は今年4月の講演で、「私の予測では、これは最終的に、私たちが価値や意味があるものと認識するものを望まない、私たちよりも賢い何かに直面することになる」と述べている。 通常の科学プロセスでは、無制限の時間の中で失敗と成功を繰り返すことで問題を解決してきたが、AGIの場合は再試行できない点が問題なのだと主張する。「『ははは、おっと、確かにうまくいきませんでした』とは言えない。(その場合は)みんな死んでいるから」(ユドコウスキー氏) 彼の提案する解決法は、大規模なAIトレーニングの実行を禁止すること。そのための国際連合が必要だと訴える。 ユドコウスキ―氏の意見は、2010年代に「極端だ」と捉えられていたが、ChatGPTの最新版である「GPT-4」が開発された現在、そのリスクは業界内でもリアルなものとして捉えられるようになってきた。今年3月、イーロン・マスク氏を含む著名なAI関係者が「GPT-4」よりも能力の高いAIシステムの開発を6カ月間停止するよう呼びかける公開書簡に署名したのは、記憶に新しい。 前述のラッセル教授も2023年9月にCNNによるインタビューで、「現在のアプローチが続けば、最終的に私たちは機械を制御できなくなるだろう」との見方を示している。しかし、彼は「人間にとって有益なAIシステムにつながる別のルートを取ることもできる」とし、そのためには、現在「ブラックボックス状態」になっているGPT-4の内容をオープンにし、従来とは異なる基盤の上で、AIをもう一度開発する必要があると訴える。 同氏は、AIが人間の利益を促進するためには、前もって固定された目的を設定するのではなく、むしろ人間が追求する利益が何であるかをAIが知らないことを最初に認識し、人間の利益を特定し、それに基づいて行動するための証拠を追求するように設計されるべきだと考えている。 そうすれば、例えば「地球温暖化を解決する」という目的のために、空気中から全二酸化炭素を除去するというような、人類にとって好ましくない結果は避けられるという。同氏はまた、AIの安全確保に向け、「各国でAIの規制機関が必要になるだろう」との見方を示している。 実際、2023年11月1日には、ロンドン郊外で各国の政府高官や企業の代表が集まり「AI安全サミット」が開催された。同サミットでは、米英政府が設立する研究機関で、企業が開発するAIの安全性を事前に検証することなどが決定。制御不能なAGIが出現する前に、人類は急速に規制環境を整備する必要に迫られている。