ノーベル受賞の研究者が、AIの急激すぎる進化に危機感を表明
AIをどう制御? 政府の役割も訴え
今あるAIの土台を築いた2人ですが、両者ともに急速すぎる進化には警鐘を鳴らしています。 2023年、著名研究者たちがAI開発企業に対し、OpenAIのGPT-4以上に強力な生成AIシステムの開発を半年間停止するよう求める署名活動を行いましたが、ホップフィールド氏もそこに名を連ねていました。 ヒントン氏は2013年に自身のAIスタートアップがGoogle(グーグル)に買収されて以降、Google Brainに所属していましたが、AIの危険性について公言するために同年退職しています。 ヒントン氏は、人類の知性を超えるようなAIが出現するまでの時間は今後5年から20年と推定し、「人工知能は、人間を思い通りに操る方法を考え出すはずだ」と言っています。 今年9月には、大手AI開発企業に対しさまざまな安全策を義務付ける法案「SB 1047」成立を求める公開文書が米カリフォルニア州知事に提出され、ヒントン氏もその文書に署名していました。ちなみにこの法案は州議会で可決されたものの、ギャビン・ニューサム州知事がテック企業の圧力に屈し拒否権を発動したため、成立していません。 ヒントン氏はノーベル賞委員会からのインタビューで答えています。 「今後数年で、我々がそんな脅威に対処する方法があるのかどうか、判断する必要があります。 いかにコントロールを維持するか、それを今考えることが非常に重要です。かなりの研究努力が必要です。政府ができることは、大手企業が安全性研究への投資を大幅拡大するよう強制することだと思います」
福田ミホ