Yahoo!ニュース

「AIによる絶滅のリスクに備えよ」オープンAI、グーグル、マイクロソフトが規制を掲げる理由とは?

平和博桜美林大学教授 ジャーナリスト
「AIによる絶滅のリスク」とは(Bing Image Creatorで筆者作成)

「AIによる絶滅のリスクに備えよ」――オープンAI、グーグル、マイクロソフトを含む300人を超す専門家たちが、そんな声を上げている。

その中にはチャットGPTの開発元、オープンAIのCEO、サム・アルトマン氏のほか、グーグル・ディープマインドCEO、マイクロソフト最高科学責任者(CSO)ら、開発の中心にいる人々も含まれている。

わずか22語の声明が強調するのは、「AIによる絶滅のリスク」だ。

これまでにも、急速なAIの進化について、そのリスクを指摘する声は上がっていた。だが、今示されている懸念は、より直接的な「(人類の)絶滅」だ。

オープンAI、グーグル、マイクロソフトや専門家たちが規制を掲げる、その理由とは?

●パンデミック、核戦争並み

AIによる絶滅のリスク(the risk of extinction from AI)を軽減することは、パンデミックや核戦争など他の社会的規模のリスクと並んで、世界的な優先課題とするべきだ。

米サンフランシスコのAIの安全性に関するNPO「AIセーフティセンター(CAIS)」が5月30日に公開した「AIリスクに関する声明」は、わずか22語の文章で、そう述べている。

声明が指摘する「絶滅のリスク」を被るのは、人類だ。そしてそのリスクは、コロナなどの世界的な感染症(パンデミック)の脅威や、核戦争の脅威に匹敵する、と述べている。

声明本文に先立つ説明で、その狙いについて、こう位置づけている。

AIの専門家、ジャーナリスト、政策立案者、そして一般市民は、AIがもたらす重要かつ喫緊のリスクについて、幅広く議論するようになってきた。それでも、先進的なAIの最も深刻なリスクについて懸念を表明することは難しいかもしれない。以下の簡潔な声明は、この障害を克服し、議論を広げることを目的としている。また、先進的なAIの最も深刻なリスクを深刻に受け止める専門家や著名人が増えていることを、共通の認識とすることを意図している。

●AIのゴッドファーザーたち

370人以上の署名リストのトップに名を連ねるのは、AI開発の中心人物たちだ。

トロント大学名誉教授のジェフリー・ヒントン氏は、AIのリスクについて声を上げるために、10年間所属したグーグルを5月初めに退社し、注目を集めた

さらにモントリオール大学教授のヨシュア・ベンジオ氏は、NPO「生命未来研究所(FLI)」理事長も務め、3月にはGPT-4以上の性能を持つ生成AIの半年間の開発中止を求める公開書簡を発表。3万人を超す署名者を集めている。

※参照:「GPT-4は社会と人類へのリスク」1,700人超の専門家らが指摘する、そのリスクの正体とは?(03/31/2023 新聞紙学的

ヒントン氏とベンジオ氏は、2010年代を通じたAIの進化を先導してきた研究者で、2018年には「コンピューターのノーベル賞」と呼ばれるチューリング賞をそろって受賞。「AIのゴッドファーザー」とも呼ばれる。

さらに、人間のプロ棋士を破ったAI「アルファ碁」の開発で知られるグーグル・ディープマインドのCEO、デミス・ハサビス氏がいる。

そして、生成AIブームの台風の目であるチャットGPTを開発するオープンAIのCEO、サム・アルトマン氏。元オープンAIの研究担当副社長で、同社を離脱してAIの安全性に注力するベンチャー、アンスロピックを共同創業したCEO、ダリオ・アモデイ氏。画像生成AI「ステイブル・ディフュージョン」の開発元、スタビリティAIのCEO、エマード・モスターク氏も名を連ねる。

このほか、グーグル・アルファベットの上級副社長、ジェームズ・マニカ氏、マイクロソフトの最高科学責任者、エリック・ホービッツ氏ら、AI開発に力を入れる巨大IT企業幹部の名前も目につく。

また、エストニア元大統領であり初の女性、最年少での就任ともなったケルスティ・カリユライド氏、台湾デジタル発展部部長(大臣)のオードリー・タン氏らの名前もある。

『機械との競争』などの著作で知られるスタンフォード大学教授、エリック・ブリニョルフソン氏、『LIFE3.0』の著書があるマサチューセッツ工科大学(MIT)教授、マックス・テグマーク氏、セキュリティ専門家でハーバード大学ケネディスクール講師のブルース・シュナイアー氏、コンピューターによる自動化が雇用に与える影響を分析した論文「雇用の未来」で知られるオックスフォード大学教授、マイケル・オズボーン氏らも署名に参加している。

日本からも、脳神経科学の研究・開発支援を行うアラヤの社長、金井良太氏、慶応義塾大学理工学部教授の栗原聡氏、全脳アーキテクチャ・イニシアティブ代表、山川宏氏らの名前がある。

「絶滅のリスク」とは何なのか。

AIセーフティセンターは、「AIリスク」を「兵器化」「誤情報」「欺瞞」など、8つのポイントに整理して説明している。

その中で、「兵器化」については、こう述べている。

すべての超大国が、自国の構築するシステムの安全性を確保し、破壊的なAI技術を構築しないことに合意したとしても、不正行為者がAIを利用して重大な被害をもたらす可能性はなお残る。強力なAIシステムへのアクセスが容易であれば、一方的で悪意ある使用のリスクを高める。核兵器や生物兵器と同様に、理不尽な、もしくは悪意を持った実行者がたった1人いるだけで、大規模な被害をもたらしてしまうのだ。これまでの兵器と異なるのは、危険な能力を持つAIシステムは、デジタル手段によって簡単に拡散されてしまうという点だ。

オープンAIのアルトマン氏もまた、その手がかりを明らかにしている。

●「超知能」と「存亡のリスク」

我々が目にしている現状を考えると、今後10年以内に、ほとんどの領域でAIシステムが専門家のスキルを超え、現在の大企業に匹敵する生産活動を行うようになることが考えられる。

アルトマン氏は5月22日、オープンAI社長のグレッグ・ブロックマン氏、同社チーフサイエンティストのイリア・スツケバー氏との連名での公式ブログへの投稿で、こう述べている。

人間の知能を超えたAI「スーパーインテリジェンス(超知能)」の登場による、リスクの管理の呼びかけだ。その中で、「存亡のリスク(existential risk)」に言及している。

スーパーインテリジェンスは、そのメリットとデメリットの両面から、人類が過去に直面した他のテクノロジーよりも強力なものになるだろう。我々は未来の劇的な繁栄を手にする可能性がある。だが、そのためにはリスクの管理が必要だ。存亡のリスクの可能性があることを考えると、その対応が後手に回ることがあってはならない。このような特性を持つテクノロジーの歴史的な事例としては、原子力エネルギーや合成生物学が知られている。

その上で、このような「スーパーインテリジェンス」の管理には、国際原子力機関(IAEA)のような国際機関が安全性の監視を担う必要がある、などとしている。

アルトマン氏はその前週の5月16日、米上院司法委員会のプライバシー・テクノロジー・法律小委員会で初の議会証言に立ち、高性能のAI開発への免許制の導入などの規制策を提言している。

AI開発の規制については、グーグル・アルファベットCEOのスンダー・ピチャイ氏や、マイクロソフト副会長兼社長のブラッド・スミス氏ら、巨大IT企業のトップも相次いで声を上げている。

●グーグル元トップ、英国首相の懸念

AIの進化による「存亡のリスク」は、今回の署名者以外からも声が上がる。

存亡のリスクとは、多くの、多くの、多くの、極めて多くの人々が傷つけられたり、殺されたりすることと定義できる。

グーグルの元CEO、エリック・シュミット氏は5月24日、ロンドンで開催されたウォールストリート・ジャーナル主催のCEO評議会サミットで、AIによる「存亡のリスク」について、そう述べたという。

今日ではないが近い将来、これらの(AI)システムがサイバー問題におけるゼロデイ・エクスプロイト(未発見の脆弱性)を見つけたり、新しい種類の生物を発見したりする、というシナリオが指摘されている。今はまだフィクションだが、その推測が現実になる可能性がある。そうなったとき、我々は、それが悪人によって不正利用されないような対策を準備しておきたいのだ。

また、英国首相のリシ・スナク氏も同日、アルトマン氏、ディープマインドのハサビス氏、アンスロピックのアモデイ氏と面会し、「存亡の脅威」を含む議論を行ったという。

首相とCEOは、偽情報や国家安全保障から存亡の脅威に至るまで、この技術のリスクについて議論した。安全対策、リスク管理のために研究機関が検討している自主的対応、AIの安全性と規制に関する国際協力の可能性についても議論した。

英首相官邸のリリースは、そう述べている。

●「存亡のリスク」は本当か

スーパーヒューマン(超人的)なAIは、存亡のリスクのリストの上位には遠く及ばない。というのも、そんなものはまだ存在もしていないのだから。

ニューヨーク大学教授でメタのチーフAIサイエンティスト、ヤン・ルカン氏は5月30日、ツイッターにそう投稿している。

ルカン氏は、ヒントン氏、ベンジオ氏とともに「AIのゴッドファーザー」と呼ばれ、ともにチューリング賞を受賞している。

ただし、AIによる「存亡のリスク」を疑問視する論陣を張っており、他の2人とは対照的な立場をとる。

ルカン氏の投稿は、やはりAI研究で知られるスタンフォード大学教授、アンドリュー・ン氏が、人類の存亡のリスクの上位として、「次のパンデミック」「気候変動」「小惑星」を挙げ、「AIはその解決策のカギになる」としたツイートへの返信として公開されたものだ。

また、英エコノミストも、5月25日の記事で、「存亡のリスク」とAI規制をめぐり、こう指摘している。

巨大ハイテク企業が規制を利用して、生成AIの頂点に立つ地位を固めようとするならば、そこにはトレードオフが存在する。(中略)シュンペーター的な創造的破壊の時代が到来するのではなく、現在ある大企業が、"創造的蓄積"と呼ばれるイノベーションのプロセスを支配していることを思い起こさせる。そうなるとこの(AI)テクノロジーは、結局、革命的なものにはなり得ないかもしれない。

つまり、AI開発で先行する巨大IT企業が規制を盾とすることで、その優位を確保し、競争が阻害されてしまうリスクもある、との主張だ。

そしてエコノミストは、大企業のコントロールが及ばない動きとしてオープンソースを挙げる。

ルカン氏が所属するメタは2月24日、自社の大規模言語モデル「ラマ(LLaMA)」を研究者向けの形で、オープンソースとして限定公開した。

しかし、公開から1週間後の3月3日には、ダウンロード可能な形で「4chan」に流出していたという。

エコノミストは、グーグル、マイクロソフトを含むAI開発規制論には、このようなオープンソースの広がりに歯止めをかける狙いがある、と見立てる。

●進化のスピードとコントロール

AIの進化の先にある「人類絶滅」のシナリオについては、オックスフォード大学教授、ニック・ボストロム氏が2014年にまとめた大著『スーパーインテリジェンス 超絶AIと人類の命運』の中で1章を割いて取り上げており、これまでも注目を集めてきた議論だ。

※参照:チャットAIには「意識」が宿るかもしれない、ボストロム教授の懸念とは?(04/21/2023 新聞紙学的

今回の極めて短いAIセーフティセンターによる声明発表の背後には、エコノミストが指摘するような、グーグル、マイクロソフトやオープンAIのような開発元の思惑もあるかもしれない。

しかし、戦場におけるドローンによる攻撃や情報戦としてのディープフェイクスの使用、アルゴリズムの暴走による株価などの瞬間的暴落(フラッシュクラッシュ)など、「存亡のリスク」を裏付けるような実例はすでにある。

「AIのゴッドファーザー」3人のうちの2人が声を合わせ、多くの専門家が賛同するリスクの指摘には、耳を傾ける価値があるだろう。

(※2023年6月1日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事