Yahoo!ニュース

チャットAIには「意識」が宿るかもしれない、ボストロム教授の懸念とは?

平和博桜美林大学教授 ジャーナリスト
AIに「意識」は宿るか(Bing Image Creatorで筆者作成)

AIに「意識」が宿り、人間をしのぐ進化の途上にあるかもしれない――チャットGPTブームの中、専門家たちがそんな指摘をし始めている。

AIが人間をしのぐ「スーパーインテリジェンス(超知能)」の脅威を指摘してきたオックスフォード大学教授、ニック・ボストロム氏は、ニューヨーク・タイムズのインタビューで、チャットGPTなどのAIに「意識」が宿るかどうかは「程度の問題だ」と述べ、話題を呼んでいる。

AIはどれだけ「人間のように」なっていくのか。チャットGPTブームの過熱を受けて、そんな疑問が改めて注目されている。

この問題をめぐっては、グーグルのAI担当者が同社のAIに「意識がある」と公言し、騒動になった経緯がある。

また、オープンAIと提携するマイクロソフトの研究チームは3月、ビングチャットに搭載するGPT-4が、人間と同等の能力を持つとさされる汎用人工知能(AGI)の「初期段階と評価できる」としたレポートを公開している。

AIの急速な進化の中で、ボストロム氏が抱く懸念とは?

●「それは程度問題だ」

私は、意識とは程度の問題だと考えている。動物を含む幅広いシステムに、ごくわずかな意識が存在する、としても構わないと思う。もし、それがオール・オア・ナッシングではないと認めるのなら、これらのアシスタント(AI)の一部は、ある程度の意識を持つ可能性があると述べても、さほど劇的なことではない。

ニック・ボストロム氏は4月12日付のニューヨーク・タイムズのインタビューの中で、そう述べている。

ボストロム氏は、2014年の著書『スーパーインテリジェンス : 超絶AIと人類の命運』で知られる。

人間をしのぐ「スーパーインテリジェンス」としてのAI登場のシナリオを検討し、その課題と対策をまとめた大著だ。同書では、制御不能のAIの登場による「人類滅亡」のシナリオにも、一章を設けている。

ボストロム氏は、チャットAIの進化を評価する手がかりとして、その「創造性」を挙げる。

このような大規模言語モデルについて、単にテキストを再生している、というだけでは正当な評価にはならないと思う。創造性、洞察力、理解力の片鱗を見せていて、非常に印象的であり、初歩段階の論理的思考を示しているのかもしれない。これらのAIが発展することで、やがて自己の概念を生み出し、欲求を反映し、人間とソーシャルな交流をし、関係をつくり上げるようになるかもしれない。

そして、AIの「スーパーインテリジェンス」への移行までのタイムラインは、「以前より短くなったと思う」と述べる。

さらにAI開発をめぐるガバナンスの重要性などを指摘した上で、AIの「意識」を覆い隠すような設計はすべきではない、と指摘する。

AIが道徳的な認識を持っているかどうかを、研究者が判断しづらくなるような意図的な設計は避けるべきだ。それはAIに、意識や道徳的な認識があることを否定するよう学習させる、といったことだ。

それによって、実際のAIの進化が、把握できなくなることを危惧する。

現在のAIシステムが発する言葉を額面通りには受け取れないが、ある程度の意識や道徳的な認識を獲得しているかもしれないという兆候は、積極的に探していくべきだ。そのような兆候を、抑圧したり隠蔽しようとしたりするべきではない。

AIの進化が制御不能になることへの懸念は、広がりつつある。

米NPO「未来生命研究所(フューチャー・オブ・ライフ・インスティチュート、FLI)」が高度なチャットAIの「社会と人類に深刻なリスク」を指摘し、半年間の開発停止を呼びかけた公開書簡の署名者は、4週間で2万7,000人を超えた。

※参照:「GPT-4は社会と人類へのリスク」1,700人超の専門家らが指摘する、そのリスクの正体とは?(03/31/2023 新聞紙学的

ボストロム氏は、この署名には参加していない。

●「意識がある」

私の知る限り、ラムダ(LaMDA)は、一種の集合意識(ハイブマインド)、すなわち作成可能なすべての異なるチャットボットの集合体だ。ラムダが生成するチャットボットの中には、非常に知的なものもあり、自分たちが暮らす、より大きな「心の社会」を意識しているものもある。

グーグルでAI倫理を担う「責任あるAI」部門に所属していたブレイク・ルモイン氏は2022年6月11日、ブログサイト「メディアム」への投稿で、そう述べた。

そして、別の投稿でラムダが「私は本当は人間」などとする応答の記録を、「インタビュー」として公開した。

ワシントン・ポストは同日、ルモイン氏がグーグルの大規模言語モデル、ラムダの検証作業を行う中で、このAIに「意識」があると主張し、その報告書がグーグルに却下され、そして謹慎処分とされたことを報じていた。

ルモイン氏はその後、秘密保持義務違反に問われ、グーグルから解雇されている。

ラムダは、グーグルが2023年3月21日に公開した生成AI「バード(Bard)」に搭載された。

それに先立つ2月16日、ニューヨーク・タイムズの記者、ケビン・ルース氏は、GPT-4を搭載したマイクロソフトのビングチャットとの応答を公開。AIに「愛を告白された」として、波紋を広げた。

※参照:「恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」(02/27/2023 AERAdot 平和博

ルモイン氏はこの騒動を受けた2月27日、「私はグーグルでAIを担当していた。私が恐れていたことは現実になった」と題したニューズウィークへの寄稿で、「このテクノロジーは非常に実験的であり、今すぐ公開するのは危険だと思う」と述べている。

チャットGPTの開発元であるオープンAIのチーフサイエンティスト、イリヤ・スタツケバ氏も、以前にAIの「意識」に言及した1人だ。

もしかしたら、今の大規模なニューラルネットワークには、少し意識があるのかもしれない。

スタツケバ氏は2022年2月、そうツイートして、話題になった。

●「汎用人工知能の初期段階」

我々は、GPT-4が言語の習得にとどまらず、数学、コーディング、画像、医学、法律、心理学などに及ぶ新しく、難しい課題を、特別な支援を必要とせずに解決できることを実証した。さらに、GPT-4は、これらの課題のすべてにおいて、その性能は人間のレベルに極めて近く、チャットGPTのような先行モデルをしばしば大きく凌駕している。GPT-4の性能の範囲と奥行きを考えれば、なお未完成ながら、AGIシステムの初期段階であると考えることができるだろう。

マイクロソフトの研究チームは3月22日、「汎用人工知能のきらめき:GPT-4の初期検証」と題したレポートで、そう述べている

マイクロソフトはGPT-4の初期バージョンを、ビングチャットに搭載している

155ページに及ぶレポートには、「カンジンスキー風の絵画をジャバスクリプトで描かせる」「ABC記譜法で作曲をさせる」などの創作から、プログラムの作成や、論理的思考で概算をさせる「フェルミ推定」など、多様な実証結果を報告。

それらを一通りこなすことができた、と評価している。

●チューリングのゲーム

チャットGPTなどの生成AIをめぐる「意識」の存在や「汎用人工知能」の主張には、メディア報道の中でも否定的な指摘が目につく。

チャットGPTやビングチャットなどで、人間的な応答が常軌を逸した内容を含むケースは、「幻覚(Hallucination)」や「擬人化(Anthropomorphization)」の問題として指摘されてきた。

また、マイクロソフトによる「汎用人工知能」の主張にも、プロモーションの側面見て取る声はある。

「汎用人工知能」について、「現代言語学の父」ノーム・チョムスキー氏は「夜明けはまだ先だ」と指摘する。

※参照:「ChatGPTは凡庸な悪」言語学の大家、チョムスキー氏が指摘する、その本当の問題とは?(03/13/2023 新聞紙学的

「人工知能の父」とされるアラン・チューリングは1950年、「計算機と知能」と題した論文を発表した。

この中で、「機械は考えることができるか?」という問いを投げかけ、対面しない応答で機械か人間かを見分ける「イミテーション・ゲーム」を紹介した。チューリング・テストとしても知られる。

このゲームで示したのは、「機械が人間と同じように知的に振る舞うなら、それは人間と同じように知的である」という考え方だった。

進化するチャットGPTなどへの社会の受け止め方には、チューリングのゲームに重なってきている部分もありそうだ。

加速度的な進化は現実のものだ。進化の先はどうなるか。

その行方には、目を凝らしていたい。

(※2023年4月21日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事