Yahoo!ニュース

偽情報・犯罪・雇用「AIの深刻なリスク」、"ゴッドファーザー"らが示す現実味とは?

平和博桜美林大学教授 ジャーナリスト
「AI安全サミット」で登壇したヨシュア・ベンジオ氏(右)(写真:代表撮影/ロイター/アフロ)

偽情報・犯罪・雇用に「AIの深刻なリスク」――。

英国科学・イノベーション・技術省とAI安全性研究所は5月17日、132ページに上るAIの安全性に関する「国際科学報告書」の中間報告を公開した。

「AIのゴッドファーザー」の1人、モントリオール大学教授、ヨシュア・ベンジオ氏を委員長に、日本を含む30カ国、欧州連合(EU)、国連の75人の専門家らによってまとめられた。

急速に高度化するチャットGPTなどのAIのメリットの一方で、偽情報やサイバー犯罪への悪用、雇用への影響など「個人と公共の安全と幸福に深刻なリスクをもたらす可能性がある」と指摘している。

リスクを軽減するのに役立つ技術的アプローチは存在するとしながら、「現在知られている方法では、汎用目的AIに関する危害に対して、強力な担保や保証を提供することはできない」とも述べている。

そして、中間報告が指摘する懸念の現実味を示す動きは、AIブームの台風の目、チャットGPTの開発元のオープンAIで起きていた。

その現実味とは?

●誤作動や悪意のある使用

汎用目的AIが適切に管理されれば、公共の利益を促進するために利用され、幸福の増進、さらなる繁栄、新たな科学的発見につながる可能性がある。しかし、誤作動を起こしたり、悪意を持って使用された汎用目的AIは、例えば、重要な利害にかかわる場面での偏った判断や、詐欺、フェイクメディア、プライバシー侵害などを通じて、害をもたらす可能性もある。

ベンジオ氏らがまとめた「先端AIの安全性に関する国際科学報告書」の中間報告は、チャットGPTなどの「汎用目的AI(General-Purpose AI)」のメリットとリスクについて、こう述べている

日本からはソニーグループ副社長CTOの北野宏明氏が参加している。

報告書のとりまとめは、2023年11月に英国で開催された「AI安全サミット」の宣言に盛り込まれ、2024年中に最終報告を公開する予定だ。中間報告は、5月21日から英国と韓国が共催する「AIソウルサミット」に先立って公開された。

中間報告は、現在の生成AIなどを「汎用目的AI」と呼んで、リスク評価の対象としている。人間並みか人間を上回る認知能力を持つAIを指す「汎用AI(Artificial General Intelligence、AGI)」とは区別し、「汎用目的AI」は、はるかに能力が限定されたもの、としている。

●「制御不能」のリスク

中間報告をとりまとめたベンジオ氏は、AIのリスクについて、これまでも先頭に立って警告を続けてきた。

2023年3月に行った、AI開発の「制御不能な競争」の停止を求めた署名では筆頭に、同年5月の「AIによる絶滅のリスク」を掲げた署名でも、やはり「AIのゴッドファーザー」の1人、トロント大学教授のジェフリー・ヒントン氏の次に、名を連ねる。

※参照:「AIによる絶滅のリスクに備えよ」オープンAI、グーグル、マイクロソフトが規制を掲げる理由とは?(06/01/2023 新聞紙学的

※参照:「GPT-4は社会と人類へのリスク」1,700人超の専門家らが指摘する、そのリスクの正体とは?(03/31/2023 新聞紙学的

ただ中間報告では、AIが「制御不能」となるリスクについて、「どの程度現実味があるのか、いつ起こりうるか、その軽減策はどの程度困難なのかについては、専門家の間でも意見が分かれている」と位置付けている。

中間報告が悪用の具体例として挙げるのが、偽情報や世論操作だ。

偽情報や世論操作に、汎用目的AIを悪用することも懸念される。汎用目的AIやその他の最新テクノロジーは、政治的プロセスに影響を与える試みも含め、偽情報の生成と拡散を容易にする。コンテンツの電子透かしのような技術的な対策は、有用ではあるが、ある程度のスキルがある行為者なら、通常は回避できる。

その結果、メディア空間に起きる状況について、こう述べる。

汎用目的AIの能力が高まり、大規模なメッセージの生成と拡散にますます使用されるようになると、それが正確であれ、意図的な虚偽であれ、意図的でない虚偽であれ、人々はどのような情報もあまり信用しなくなり、公共の熟議にとって深刻な問題となる可能性がある。

報告書では、AIによって深刻化する悪用として、標的をだまして情報を詐取する「フィッシング」などのサイバー攻撃や、ディープフェイクスによる偽造ポルノといった犯罪事例なども取り上げている。

●急速な高度化とボトルネック

最先端のAIモデルでは、学習に使用される計算資源(コンピュート)が毎年約4倍、学習データセットのサイズが2.5倍、アルゴリズム効率(コンピュートに対する性能)が1.5~3倍に増加している。

中間報告では、AIの高度化を支える急速な大規模化(スケーリング)について、そう説明する。そして、「いくつかの指標では人間レベルの性能に近づいたり、凌駕したりしている」とも述べる。

ただ、一方ではその安全性と成長のボトルネックについても指摘する。

「汎用目的AIのモデルやシステムが、どのように機能するかについての全体的な理解は、限られている」と中間報告は述べる。安全性の対策を取る上で、よくわかっていないことが多い、ということだ。

さらに、開発を推進する上での課題もある。

データ、AIチップ、資本支出、地域のエネルギー容量などの利用可能性を含め、データと計算資源の両方をさらに増加させるための潜在的なボトルネックがある。

データの利用可能性の問題の1つは、著作権だ。チャットGPTの開発元、オープンAIは、米国のAP通信やドイツのアクセル・シュプリンガーなどのメディアとデータ提供の契約を結ぶ一方、ニューヨーク・タイムズニューヨーク・デイリー・ニュース、シカゴ・トリビューンなどからは著作権侵害で提訴されている。

不明確な著作権制度は、汎用目的AIの開発者が、どのようなデータを使用しているかを公表する意欲を削ぎ、汎用目的AIモデルの学習のために、同意なしに作品が使用されるクリエイターに対して、どのような保護が与えられるかを不明確にしている。

また、AI開発のための膨大なコストは、それが欧米と中国に集中する「AIデバイド(格差)」を生み出していると指摘する。

中間報告は、AIの雇用への影響についても触れている。

特に汎用目的AIが急速に進歩すれば、非常に幅広い作業を自動化でき、労働市場に大きな影響を与える可能性がある。これは、多くの人々が現在の仕事を失う可能性があることを意味する。しかし、多くのエコノミストは、潜在的な雇用損失は、新たな雇用の創出や非自動化分野での需要増加によって、場合によっては完全に相殺されると予想している。

国際通貨基金(IMF)は2024年1月、先進国の仕事の60%がAIの影響を受け、その半分が生産性向上につながる一方、残る半分が人間を代替し、労働需要の低下につながる可能性を指摘。新興国(40%)や発展途上国(26%)ではAIの影響が限られるとも見立てている。

●「底辺への競争」の現実味

近年、汎用目的AIの開発者の間では、モデルの迅速な構築と展開に向けた激しい競争が繰り広げられている。このため、「底辺への競争」のシナリオの可能性が懸念されている。このシナリオでは、関係者は、安全性と倫理を確保するための対策への投資が不十分なまま、汎用目的AIモデルをできるだけ早く開発しようと競争する。

競争の激化の中で、AIの安全性の検証が不十分なままで、市場に投入されてしまう――中間報告は、そんな懸念を「底辺への競争」のシナリオとして指摘している。

そのような懸念を持つのは、中間報告をまとめた専門家たちだけではなかった。

オープンAIの安全対策のためのAI開発チーム「スーパーアラインメント」を主導してきたヤン・ライカ氏は、中間報告が公開されたのと同じ5月17日、Xに辞任のメッセージを投稿。同社が掲げる人間を超えるような汎用AI(AGI)開発の現状について、こう指摘している。

人間より賢いマシンを作ることは、本質的に危険な試みだ。オープンAIは、全人類を代表して大きな責任を担っている。しかしこの数年、安全性の文化やプロセスは、ピカピカの製品よりも後回しにされてきた。

同チームを率いてきたもう1人、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏も5月14日退任している。

サツケバー氏は、2023年11月の同社CEO、サム・アルトマン氏に対する突然の解任劇で、解任側として動いた。解任劇の背景には、同社が安全性よりもスピード重視に傾いている、との懸念があった。

※参照:アルトマン氏CEO復帰、オープンAI解任劇の火種となった1本の論文とは?(11/23/2023 新聞紙学的

ライカ氏の投稿を受けて、アルトマン氏と社長のグレッグ・ブロックマン氏は5月18日、連名で482語に上る声明を公開

安全性に関するオープンAIのこれまでの取り組みを説明し、「私たちは、大きなプラス面を実現することと、深刻なリスクを軽減することの両方を信じています」などとしたが、「スーパーアラインメント」についての具体的な言及はなかった。

●不可避なことはない

汎用目的AIの将来について、不可避なことは何もない。汎用目的AIが誰によってどのように開発されるのか、どのような問題を解決するために設計されるのか、社会はその経済的ポテンシャルを完全に享受できるか、誰がその恩恵を受けるのか、私たちはどのようなリスクにさらされるのか、リスクを軽減するための研究にどれだけの投資をするのか――このような多くの疑問は、汎用目的AIの開発に取り組むために、社会や政府が現在、そして将来行う選択にかかっている。

中間報告は、そう述べる。

中間報告の公開と同じ5月17日、欧州評議会の加盟46カ国と日本、米国を含むオブザーバー11カ国は、AIシステムが「人権、法の支配、民主主義」の基準を尊重することを求める国際条約を採択している。

締結国は、AIによる差別やプライバシー侵害といった人権侵害のリスクの評価と対処策などを策定することになる。

AIのリスクをどれだけ軽減できるか。「不可避なことは何もない」。その通りだろう。

(※2024年5月20日付「新聞紙学的」より加筆・修正のうえ転載)

桜美林大学教授 ジャーナリスト

桜美林大学リベラルアーツ学群教授、ジャーナリスト。早稲田大卒業後、朝日新聞。シリコンバレー駐在、デジタルウオッチャー。2019年4月から現職。2022年から日本ファクトチェックセンター運営委員。2023年5月からJST-RISTEXプログラムアドバイザー。最新刊『チャットGPTvs.人類』(6/20、文春新書)、既刊『悪のAI論 あなたはここまで支配されている』(朝日新書、以下同)『信じてはいけない 民主主義を壊すフェイクニュースの正体』『朝日新聞記者のネット情報活用術』、訳書『あなたがメディア! ソーシャル新時代の情報術』『ブログ 世界を変える個人メディア』(ダン・ギルモア著、朝日新聞出版)

平和博の最近の記事