OpenAI騒動帰結の“先”を考える アルトマン復帰によって「超知能の実現」が加速するか
アメリカ現地時間の11月17日、OpenAIのサム・アルトマンCEOが突然解任されたことに端を発した「OpenAI騒動」は、11月中に同CEOが復帰することで急速に収束した。この騒動の過程で、同社の経営方針をめぐって対立があったことを示唆する報道がなされた。騒動の決着とともにこの対立も解消されたようだが、再び団結した同社はリスクを伴う目標に向けて邁進するようになると考えられる。本稿では、騒動の顛末とあらわになった対立をまとめたうえで、アルトマンCEOの“悲願”を確認する。 【画像】OpenAIの組織図 ■騒動の顛末 サム・アルトマンCEO解任の報から始まったOpenAI騒動は、同社が2023年11月29日に公開した公式ブログ記事で決着を見た(※1)。その記事では、同CEOの復帰と同CEOと同時に解任されたグレッグ・ブロックマン(Greg Brockman)氏の社長復帰が発表された。騒動後の同社の方針をまとめると、以下のようになる。 ・アルトマンCEOとブロックマン社長の復帰 ・OpenAIの経営方針を決定する理事会の再構築 ・新理事会には、Microsoftが議決権のないオブザーバーとして参加する ・今回の騒動について調査する独立委員会の招集 なお、今回の騒動の引き金となったと考えられる「非営利団体が営利企業を監督する」というOpenAI社の独特な二重ガバナンス構造が今後も継続するかどうかについては言及されていない。 OpenAI騒動は10日余りで決着したのだが、その過程で文字通りドラマのような展開を見せた。経緯を時系列で表すと、以下の通りになる。 ・2023年11月17日、アルトマンCEOとブロックマン社長が突如解任される。 ・11月20日、上記両氏がMicrosoftに入社。 ・両氏のMicrosoft入社と前後して、OpenAI社員が次々と「人材なくしてOpenAIはなし(OpenAI is nothing without its people)」とXにポストすることで、アルトマン氏復帰に向けて団結する。 ・11月21日、ブルームバーグが報じたところ(※2)によれば、OpenAI理事会メンバーの解任と両氏の復帰を要求する書簡が、同社700人あまりの署名とともに提出された。(同社全社員数はおよそ770人) ・11月22日、アルトマンCEOの復帰をOpenAIがXにポストする。 ・11月29日、新体制に関するOpenAI公式ブログ記事が公開される。 余談だが、11月20日にアルトマンCEOがOpenAIへの復帰を交渉するために同社を訪れた際、彼が同社の創業者であるにもかかわらず、(CEOを解任されたので)ゲストカードで入社するという珍事が起こった。同CEOはこの珍事が気に入ったようで、その様子をXにポストしている。 ■騒動の火種となった可能性のある1本のレポート OpenAI騒動の原因に関して、同社は公式ブログ記事でアルトマンCEOが「理事会とのコミュニケーションにおいて一貫して率直さを欠いていた」とやや主観的に述べるにとどまっている。それゆえ、理事会でどのような対立が生じていたのかに関して、現時点で具体的にはわかっていない。 こうしたなかイギリスメディアThe Guardianは2023年11月23日、OpenAI騒動の火種となった可能性のある1本のレポートについて報じた(※3)。そのレポートはアルトマンCEO解任当時、OpenAI理事会メンバーを務めていたヘレン・トナー(Helen Toner)氏が執筆したものである。 政治学において世界最高峰と評価されるアメリカ・ジョージタウン大学の「CSET(Center for Security and Emerging Technology:安全保障・新技術センター)」にも所属しているトナー氏は2023年10月、同センターの研究員と共著で「AIの安全性」に関するレポート(※4)を発表した。このレポートは政策立案者がAIにまつわるリスクを評価する方法を論じているのだが、「民間セクターからのシグナリング」と題された節では民間企業から発せられるAIリスクの兆候を考察している。 当該の節では、2023年のOpenAIとChatGPTの競合AI『Claude』を開発するAnthropicが対比されている。2023年3月、OpenAIは『GPT-4』を発表した際に、そのリスクについてまとめたシステムカードとともにリリースした。しかし、こうした企業活動は真にAIリスクを軽減するものではない、とトナー氏執筆のレポートは批判している。対してAnthropicは、『GPT-4』のリリースを受けて、安全性に万全を期すためにClaudeのリリースを意図的に延期した。同レポートは、このAnthropicの決断を「AIリスクに真摯に向き合ったもの」として称賛している。ちなみに、Anthropicは10月17日より『Claude』を日本を含む95ヶ国で展開しており、11月22日には『Claude 2.1』を公開している。 OpenAIを名指しで批判したレポートの内容に関して、アルトマンCEOとトナー氏とのあいだで確執が生じたことを前出のThe Guardianの記事は伝えている。そして同レポート公開後、OpenAI騒動が起こったもののアルトマンCEOは復帰した。一方で、2023年11月30日、トナー氏はOpenAI理事会メンバーを辞任したとXにポストした。 ■諸刃の剣「Q*」をめぐるOpenAI社内の摩擦 OpenAI社内のAIリスクをめぐる動きについては、ロイター通信も2023年11月23日に報じている(※5)。その報道によると、OpenAI騒動が起こる少し前に人類を危機に晒しかねない強力なAIを実現するアルゴリズムに関する書簡が同社理事会に提出された、と匿名の同社関係者は語っている。 そのアルゴリズムは「Q*」(読み:キュースター)と命名されており、AIの数学的推論能力を大きく進化されるものとされている。ChatGPTを含む現在の対話型AIは数学的推論を苦手としているが、『Q*』が実用化されれば、「汎用人工知能(すべての分野において人間と同等の知的活動ができるAI)」の実現に向けて大きく前進する。しかしながら、汎用人工知能実現への接近は人類が制御できないAIが誕生するリスクもはらんでおり、前出の書簡は『Q*』の危険性も指摘していたようだ。 ところで、ChatGPTを含む現在の対話型AIはなぜ数学的推論を苦手としているのだろうか。この疑問に関しては、国立情報学研究所が主催している教育機関DXシンポの第67回(2023年7月7日オンライン開催)で発表された湊 真一京都大学教授の作成資料(※6)がくわしく論じている。結論からいえば、ChatGPTは計算結果を書いたり文章を読んだりする「読み書き」だけを学習しているのであって、実際の計算を学習していないのだ。つまり、同AIは算数の教科書を読んではいるが、計算練習を全くしていないというわけである。 以上をふまえると、数学的推論能力を有する『Q*』が非常に革新的なアルゴリズムであるとわかるだろう。そして、このアルゴリズムが理事会に報告された直後にアルトマンCEOが解任されたとなると、理事会で同アルゴリズムに関する何らかの対立があったのではないか、とも考えられる。 ■汎用人工知能の先を見すえるアルトマンCEO 本稿ではOpenAI騒動の顛末と、その直前にあったAIのリスクをめぐるふたつの出来事を振り返った。そして、これらを総合すると、以下のような推理が可能ではなかろうか。 OpenAI騒動の直前、汎用人工知能実現に関する大きな前進があったものも、その前進に伴うリスクをめぐって同社理事会で互いに引くに引けない対立が生じた結果、アルトマンCEOが解任されてしまった。そして、状況が二転三転した後に同CEOが復帰した一方で、AI開発に関して慎重派と目されるトナー氏が理事会メンバーを辞任したことを鑑みれば、騒動後の同社はAI開発推進派であらためて団結した。 これはあくまでも筆者の推理に過ぎない。しかし、以上の推理を補強するかも知れない言葉が、前出のOpenAI騒動の終結を宣言した同社ブログ記事のなかにある。それはアルトマンCEOの“決意表明”ともとれる一文で、「私は、世界最高のチームであり、世界最高のミッションに携わっている(OpenAI社員である)皆さんとともに、有益なAGI(Artificial General Intelligence:汎用人工知能)を作り上げる仕事を終えることをとても楽しみにしています」と表現されている。 この一文で注目すべきは、汎用人工知能の実現を「終えることを楽しみにしている」と表現している点だ。つまり、汎用人工知能実現は見果てぬ夢ではなく、終わらせることが可能なタスクと見なされているのだ。 アルトマンCEOが抱いている“夢”は、汎用人工知能実現で終わらず、その先にある「超知能(Superintelligence)」を見すえている。これは、すべての分野において人間を凌駕する人工知能を指す。 2023年になってから、OpenAI公式ブログで折りにふれて超知能が言及されるようになった。最初に言及したアルトマンCEO執筆の記事『AGI以降の計画』(GPT-4リリース前の2023年2月24日公開)(※7)では「AGIが実現した場合、この知性体は自身の進化を加速させる能力がある」と述べたうえで、こうした進化の末に誕生する「超知能」が存在する世界への移行は「人類史上もっとも重要で希望に満ちた、そして恐ろしいプロジェクト」になると語っている。 また2023年7月5日には、「超知能の管理方法」を論じたブログ記事(※8)が公開された。この記事では、まず人間が管理可能な高度なAIを開発した後に、この高度AIを介して超知能を人間に敵対しないように訓練する「AIによる超知能の管理」が提案されている。そして、こうした超知能の研究にOpenAIが有する計算能力の20%をあてることも明言されている。 今回のOpenAI騒動は、結果的に同社を汎用人工知能実現のためにあらためて団結させたと考えられる。この帰結は「汎用人工知能の実現」という目標だけではなく、その先にある「超知能の実現」が早まったことを意味するのではないだろうか。 (※1)OpenAIブログ「Sam Altman returns as CEO, OpenAI has a new initial board」 https://openai.com/blog/sam-altman-returns-as-ceo-openai-has-a-new-initial-board (※2)Bloomberg「オープンAI社員、取締役全員の辞任要求-マイクロソフト移籍示唆」 https://www.bloomberg.co.jp/news/articles/2023-11-20/S4FG2SDWX2PS01 (※3)The Guardian「Who is Helen Toner the Australian woman ousted from the board of OpenAI?」 https://www.theguardian.com/technology/2023/nov/23/who-is-helen-toner-australian-woman-openai-chatgpt-board (※4)CSET「Decoding Intentions | Artificial Intelligence and Costly Signals」 https://cset.georgetown.edu/publication/decoding-intentions/ (※5)Reuters「OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say」 https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/ (※6)湊 真一「ChatGPTはなぜ計算が苦手なのか」 https://www.nii.ac.jp/event/upload/20230707-03_Minato.pdf (※7)OpenAIブログ「Planning for AGI and beyond」 https://openai.com/blog/planning-for-agi-and-beyond (※8)OpenAIブログ「Introducing Superalignment」 https://openai.com/blog/introducing-superalignment
文=吉本幸記