「人類絶滅の恐れ」、オープンAI現・元従業員が警鐘
米マイクロソフトが出資する米オープンAIや米グーグル傘下のGoogle DeepMind(グーグル・ディープマインド)といったAI(人工知能)企業の現職および元従業員が、AIがもたらすリスクについての懸念を表明する書簡を公開した。人類の絶滅につながる恐れがあると警鐘を鳴らしている。 ■ 「先進的なAIについて警告する権利」 書簡のタイトルは「A Right to Warn about Advanced Artificial Intelligence(先進AIについて警告する権利)」。AI企業の現・元従業員グループは、「秘密保持契約、内部告発者保護の欠如、報復の恐れのために、AIが人類に及ぼす脅威について懸念を表明できない」と現状を説明した。従業員が社内および公の場で安全に発言できる通報ルートを設けるべきだと主張している。 米ウォール・ストリート・ジャーナル(WSJ)によれば、オープンAI元従業員のウィリアム・サンダース氏は、「我々は最先端AIシステムの仕組みとその導入に伴うリスクについて多くの知識を持つが、それを自由に話すことができない」と強調した。 サンダース氏のほか、オープンAIの元従業員6人が公開書簡に署名した。このほか、オープンAIの現従業員4人、Google DeepMindの元従業員1人と現従業員1人も署名した。署名者のうち6人は匿名だった。 ■ 「AIのゴッドファーザー」が賛同署名 書簡には、3人の著名なAI専門家が賛同署名した。3人とは、AI科学者のスチュアート・ラッセル氏とヨシュア・ベンジオ氏、および初期の画期的なAI研究で知られる、いわゆる「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントン氏である。ヒントン氏は2023年5月、AI技術のリスクについてより自由に議論したいとして、グーグルを退職した。
ヒントン氏は、コンピューター上で人間の脳の神経回路を数学的に模倣する「ニューラルネットワーク」の研究を主導した人物。1972年、英エディンバラ大学の大学院生だった同氏はこのアイデアを支持して研究を進めた。1980年代、同氏は米カーネギーメロン大学のコンピュータサイエンスの教授だったが、その後カナダに移り、トロント大学で教鞭をとった。近年はグーグルで研究部門の副社長とエンジニアリングフェローを務めていた。 ヒントン氏によれば、AIはしばしば、膨大なデータの中から予期しない振る舞いを学んでしまう。このことは、個人や企業がコンピューターコードを生成させるだけならば問題ない。しかしそのコードを実際に実行することを許可した場合は問題だと危惧している。完全自律型兵器(キラーロボット)の大規模実践配備が現実のものになると懸念を示している。 AI専門家らはこの数年、AIが人類に危害を加える可能性について警鐘を鳴らしてきた。研究者の中には、この技術が制御不能になり、パンデミックや核戦争と同じくらい危険になる可能性があると考える人もいる。WSJによれば、より穏健に懸念を表明する研究者もいるが、それでも「AIはより厳しく規制されるべきだ」との考えを示している。 ■ オープンAI「政府、市民社会、コミュニティーと連携する」 一方、オープンAIは声明で「私たちは、最も能力が高く安全なAIシステムを提供してきた実績を誇りに思っており、リスクへの対処には科学的なアプローチが必要だと考えている」と述べた。「この技術の重要性を考えると、厳格な議論が不可欠であり、今後も世界の政府、市民社会、コミュニティーと連携していくつもりだ」(同社) 現・元従業員らのグループは今回の書簡で、「AI企業に対して責任を追及できる立場にある人がおらず、強いて言うならそれは私たちかもしれない」と説明。政府がAI企業の広範にわたる行動を監視・監督していないという現状があるとした。加えて、懸念事項として「人間が自律型AIシステムの制御を失い、それが人類の絶滅につながる恐れがある」と主張した。 従業員グループは具体的に、(1)従業員が匿名で懸念を通報できるようにすること、(2)内部告発者に対する報復を行わないこと、(3)従業員の発言を抑圧するような合意書に署名させないこと、を求めている。
小久保 重信