「人間以上に賢いAI、早ければ5年後」「AIの脅威は単なるSFではない」…ノーベル物理学賞・ヒントン名誉教授が語る未来
安全から利益追求の流れに
――オープンAIは営利組織への転換を図っているという。
「非常に強力な政府の規制がない限り、営利組織が人類を超えるAIを開発するのに、安全な場所だとはいえない。オープンAIの当初の目的は、安全なAIを開発することだったが、利益を追求する流れに巻き込まれてしまった。
グーグルがAI分野で先頭を走っていた頃は、他の企業よりも技術面で先行しており、責任ある行動を取ることができた。技術を公開したら、人々が何をするかがわからないため、公開しないという判断ができた。
だが、オープンAIがマイクロソフトと提携して開発すると、グーグルも何もしないわけにはいかなくなる。営利企業同士が競い合うと、安全性が後回しにされる。軍拡競争と同じだ。これを防ぐには政府の規制が必要になる」
――具体的にはどんな規制が有効か。
「開発企業が保有するコンピューターの処理能力の3分の1を、AIの安全性の研究開発のために投じることを義務づける法整備だ。現在のところ、AIの開発企業が安全性の研究に使っているコンピューターの処理能力はおそらく1%程度だろう。これを30倍に引き上げるべきだと思う」
――サム・アルトマン氏やイーロン・マスク氏のようなごく少数の人々や企業にAI分野の権力が集中している現状をどうみるか。
「マスク氏のような人物がいる場合は、大きな問題ではないか。Xを見る限り、社会的に無責任な行動を取っている。マスク氏が権力を握る独裁的な政府が米国で誕生すれば、人々を監視するためにAIを使うこともためらわないだろう」
――巨大IT企業の分割は、安全なAIの開発に有効か。
「現在は、AIの基本的な研究の多くがグーグルで行われている。成功した企業を分割すれば、競争を促すので消費者には良いことかもしれない。だが、基礎研究にとっては悪い影響を及ぼす恐れがある。グーグルの分割によって研究の成果が失われるかもしれない」
医療分野や自動運転、大きなメリット
――AIの進化は、社会にどんなメリットをもたらすのか。