「AIによる絶滅のリスクに備えよ」オープンAI、グーグル、マイクロソフトが規制を掲げる理由とは?
「AIによる絶滅のリスクに備えよ」――オープンAI、グーグル、マイクロソフトを含む300人を超す専門家たちが、そんな声を上げている。
その中にはチャットGPTの開発元、オープンAIのCEO、サム・アルトマン氏のほか、グーグル・ディープマインドCEO、マイクロソフト最高科学責任者(CSO)ら、開発の中心にいる人々も含まれている。
わずか22語の声明が強調するのは、「AIによる絶滅のリスク」だ。
これまでにも、急速なAIの進化について、そのリスクを指摘する声は上がっていた。だが、今示されている懸念は、より直接的な「(人類の)絶滅」だ。
オープンAI、グーグル、マイクロソフトや専門家たちが規制を掲げる、その理由とは?
●パンデミック、核戦争並み
米サンフランシスコのAIの安全性に関するNPO「AIセーフティセンター(CAIS)」が5月30日に公開した「AIリスクに関する声明」は、わずか22語の文章で、そう述べている。
声明が指摘する「絶滅のリスク」を被るのは、人類だ。そしてそのリスクは、コロナなどの世界的な感染症(パンデミック)の脅威や、核戦争の脅威に匹敵する、と述べている。
声明本文に先立つ説明で、その狙いについて、こう位置づけている。
●AIのゴッドファーザーたち
370人以上の署名リストのトップに名を連ねるのは、AI開発の中心人物たちだ。
トロント大学名誉教授のジェフリー・ヒントン氏は、AIのリスクについて声を上げるために、10年間所属したグーグルを5月初めに退社し、注目を集めた。
さらにモントリオール大学教授のヨシュア・ベンジオ氏は、NPO「生命未来研究所(FLI)」理事長も務め、3月にはGPT-4以上の性能を持つ生成AIの半年間の開発中止を求める公開書簡を発表。3万人を超す署名者を集めている。
※参照:「GPT-4は社会と人類へのリスク」1,700人超の専門家らが指摘する、そのリスクの正体とは?(03/31/2023 新聞紙学的)
ヒントン氏とベンジオ氏は、2010年代を通じたAIの進化を先導してきた研究者で、2018年には「コンピューターのノーベル賞」と呼ばれるチューリング賞をそろって受賞。「AIのゴッドファーザー」とも呼ばれる。
さらに、人間のプロ棋士を破ったAI「アルファ碁」の開発で知られるグーグル・ディープマインドのCEO、デミス・ハサビス氏がいる。
そして、生成AIブームの台風の目であるチャットGPTを開発するオープンAIのCEO、サム・アルトマン氏。元オープンAIの研究担当副社長で、同社を離脱してAIの安全性に注力するベンチャー、アンスロピックを共同創業したCEO、ダリオ・アモデイ氏。画像生成AI「ステイブル・ディフュージョン」の開発元、スタビリティAIのCEO、エマード・モスターク氏も名を連ねる。
このほか、グーグル・アルファベットの上級副社長、ジェームズ・マニカ氏、マイクロソフトの最高科学責任者、エリック・ホービッツ氏ら、AI開発に力を入れる巨大IT企業幹部の名前も目につく。
また、エストニア元大統領であり初の女性、最年少での就任ともなったケルスティ・カリユライド氏、台湾デジタル発展部部長(大臣)のオードリー・タン氏らの名前もある。
『機械との競争』などの著作で知られるスタンフォード大学教授、エリック・ブリニョルフソン氏、『LIFE3.0』の著書があるマサチューセッツ工科大学(MIT)教授、マックス・テグマーク氏、セキュリティ専門家でハーバード大学ケネディスクール講師のブルース・シュナイアー氏、コンピューターによる自動化が雇用に与える影響を分析した論文「雇用の未来」で知られるオックスフォード大学教授、マイケル・オズボーン氏らも署名に参加している。
日本からも、脳神経科学の研究・開発支援を行うアラヤの社長、金井良太氏、慶応義塾大学理工学部教授の栗原聡氏、全脳アーキテクチャ・イニシアティブ代表、山川宏氏らの名前がある。
「絶滅のリスク」とは何なのか。
AIセーフティセンターは、「AIリスク」を「兵器化」「誤情報」「欺瞞」など、8つのポイントに整理して説明している。
その中で、「兵器化」については、こう述べている。
オープンAIのアルトマン氏もまた、その手がかりを明らかにしている。
●「超知能」と「存亡のリスク」
アルトマン氏は5月22日、オープンAI社長のグレッグ・ブロックマン氏、同社チーフサイエンティストのイリア・スツケバー氏との連名での公式ブログへの投稿で、こう述べている。
人間の知能を超えたAI「スーパーインテリジェンス(超知能)」の登場による、リスクの管理の呼びかけだ。その中で、「存亡のリスク(existential risk)」に言及している。
その上で、このような「スーパーインテリジェンス」の管理には、国際原子力機関(IAEA)のような国際機関が安全性の監視を担う必要がある、などとしている。
アルトマン氏はその前週の5月16日、米上院司法委員会のプライバシー・テクノロジー・法律小委員会で初の議会証言に立ち、高性能のAI開発への免許制の導入などの規制策を提言している。
AI開発の規制については、グーグル・アルファベットCEOのスンダー・ピチャイ氏や、マイクロソフト副会長兼社長のブラッド・スミス氏ら、巨大IT企業のトップも相次いで声を上げている。
●グーグル元トップ、英国首相の懸念
AIの進化による「存亡のリスク」は、今回の署名者以外からも声が上がる。
グーグルの元CEO、エリック・シュミット氏は5月24日、ロンドンで開催されたウォールストリート・ジャーナル主催のCEO評議会サミットで、AIによる「存亡のリスク」について、そう述べたという。
また、英国首相のリシ・スナク氏も同日、アルトマン氏、ディープマインドのハサビス氏、アンスロピックのアモデイ氏と面会し、「存亡の脅威」を含む議論を行ったという。
英首相官邸のリリースは、そう述べている。
●「存亡のリスク」は本当か
ニューヨーク大学教授でメタのチーフAIサイエンティスト、ヤン・ルカン氏は5月30日、ツイッターにそう投稿している。
ルカン氏は、ヒントン氏、ベンジオ氏とともに「AIのゴッドファーザー」と呼ばれ、ともにチューリング賞を受賞している。
ただし、AIによる「存亡のリスク」を疑問視する論陣を張っており、他の2人とは対照的な立場をとる。
ルカン氏の投稿は、やはりAI研究で知られるスタンフォード大学教授、アンドリュー・ン氏が、人類の存亡のリスクの上位として、「次のパンデミック」「気候変動」「小惑星」を挙げ、「AIはその解決策のカギになる」としたツイートへの返信として公開されたものだ。
また、英エコノミストも、5月25日の記事で、「存亡のリスク」とAI規制をめぐり、こう指摘している。
つまり、AI開発で先行する巨大IT企業が規制を盾とすることで、その優位を確保し、競争が阻害されてしまうリスクもある、との主張だ。
そしてエコノミストは、大企業のコントロールが及ばない動きとしてオープンソースを挙げる。
ルカン氏が所属するメタは2月24日、自社の大規模言語モデル「ラマ(LLaMA)」を研究者向けの形で、オープンソースとして限定公開した。
しかし、公開から1週間後の3月3日には、ダウンロード可能な形で「4chan」に流出していたという。
エコノミストは、グーグル、マイクロソフトを含むAI開発規制論には、このようなオープンソースの広がりに歯止めをかける狙いがある、と見立てる。
●進化のスピードとコントロール
AIの進化の先にある「人類絶滅」のシナリオについては、オックスフォード大学教授、ニック・ボストロム氏が2014年にまとめた大著『スーパーインテリジェンス 超絶AIと人類の命運』の中で1章を割いて取り上げており、これまでも注目を集めてきた議論だ。
※参照:チャットAIには「意識」が宿るかもしれない、ボストロム教授の懸念とは?(04/21/2023 新聞紙学的)
今回の極めて短いAIセーフティセンターによる声明発表の背後には、エコノミストが指摘するような、グーグル、マイクロソフトやオープンAIのような開発元の思惑もあるかもしれない。
しかし、戦場におけるドローンによる攻撃や情報戦としてのディープフェイクスの使用、アルゴリズムの暴走による株価などの瞬間的暴落(フラッシュクラッシュ)など、「存亡のリスク」を裏付けるような実例はすでにある。
「AIのゴッドファーザー」3人のうちの2人が声を合わせ、多くの専門家が賛同するリスクの指摘には、耳を傾ける価値があるだろう。
(※2023年6月1日付「新聞紙学的」より加筆・修正のうえ転載)