偽情報・犯罪・雇用「AIの深刻なリスク」、"ゴッドファーザー"らが示す現実味とは?
偽情報・犯罪・雇用に「AIの深刻なリスク」――。
英国科学・イノベーション・技術省とAI安全性研究所は5月17日、132ページに上るAIの安全性に関する「国際科学報告書」の中間報告を公開した。
「AIのゴッドファーザー」の1人、モントリオール大学教授、ヨシュア・ベンジオ氏を委員長に、日本を含む30カ国、欧州連合(EU)、国連の75人の専門家らによってまとめられた。
急速に高度化するチャットGPTなどのAIのメリットの一方で、偽情報やサイバー犯罪への悪用、雇用への影響など「個人と公共の安全と幸福に深刻なリスクをもたらす可能性がある」と指摘している。
リスクを軽減するのに役立つ技術的アプローチは存在するとしながら、「現在知られている方法では、汎用目的AIに関する危害に対して、強力な担保や保証を提供することはできない」とも述べている。
そして、中間報告が指摘する懸念の現実味を示す動きは、AIブームの台風の目、チャットGPTの開発元のオープンAIで起きていた。
その現実味とは?
●誤作動や悪意のある使用
ベンジオ氏らがまとめた「先端AIの安全性に関する国際科学報告書」の中間報告は、チャットGPTなどの「汎用目的AI(General-Purpose AI)」のメリットとリスクについて、こう述べている。
日本からはソニーグループ副社長CTOの北野宏明氏が参加している。
報告書のとりまとめは、2023年11月に英国で開催された「AI安全サミット」の宣言に盛り込まれ、2024年中に最終報告を公開する予定だ。中間報告は、5月21日から英国と韓国が共催する「AIソウルサミット」に先立って公開された。
中間報告は、現在の生成AIなどを「汎用目的AI」と呼んで、リスク評価の対象としている。人間並みか人間を上回る認知能力を持つAIを指す「汎用AI(Artificial General Intelligence、AGI)」とは区別し、「汎用目的AI」は、はるかに能力が限定されたもの、としている。
●「制御不能」のリスク
中間報告をとりまとめたベンジオ氏は、AIのリスクについて、これまでも先頭に立って警告を続けてきた。
2023年3月に行った、AI開発の「制御不能な競争」の停止を求めた署名では筆頭に、同年5月の「AIによる絶滅のリスク」を掲げた署名でも、やはり「AIのゴッドファーザー」の1人、トロント大学教授のジェフリー・ヒントン氏の次に、名を連ねる。
※参照:「AIによる絶滅のリスクに備えよ」オープンAI、グーグル、マイクロソフトが規制を掲げる理由とは?(06/01/2023 新聞紙学的)
※参照:「GPT-4は社会と人類へのリスク」1,700人超の専門家らが指摘する、そのリスクの正体とは?(03/31/2023 新聞紙学的)
ただ中間報告では、AIが「制御不能」となるリスクについて、「どの程度現実味があるのか、いつ起こりうるか、その軽減策はどの程度困難なのかについては、専門家の間でも意見が分かれている」と位置付けている。
中間報告が悪用の具体例として挙げるのが、偽情報や世論操作だ。
その結果、メディア空間に起きる状況について、こう述べる。
報告書では、AIによって深刻化する悪用として、標的をだまして情報を詐取する「フィッシング」などのサイバー攻撃や、ディープフェイクスによる偽造ポルノといった犯罪事例なども取り上げている。
●急速な高度化とボトルネック
中間報告では、AIの高度化を支える急速な大規模化(スケーリング)について、そう説明する。そして、「いくつかの指標では人間レベルの性能に近づいたり、凌駕したりしている」とも述べる。
ただ、一方ではその安全性と成長のボトルネックについても指摘する。
「汎用目的AIのモデルやシステムが、どのように機能するかについての全体的な理解は、限られている」と中間報告は述べる。安全性の対策を取る上で、よくわかっていないことが多い、ということだ。
さらに、開発を推進する上での課題もある。
データの利用可能性の問題の1つは、著作権だ。チャットGPTの開発元、オープンAIは、米国のAP通信やドイツのアクセル・シュプリンガーなどのメディアとデータ提供の契約を結ぶ一方、ニューヨーク・タイムズやニューヨーク・デイリー・ニュース、シカゴ・トリビューンなどからは著作権侵害で提訴されている。
また、AI開発のための膨大なコストは、それが欧米と中国に集中する「AIデバイド(格差)」を生み出していると指摘する。
中間報告は、AIの雇用への影響についても触れている。
国際通貨基金(IMF)は2024年1月、先進国の仕事の60%がAIの影響を受け、その半分が生産性向上につながる一方、残る半分が人間を代替し、労働需要の低下につながる可能性を指摘。新興国(40%)や発展途上国(26%)ではAIの影響が限られるとも見立てている。
●「底辺への競争」の現実味
競争の激化の中で、AIの安全性の検証が不十分なままで、市場に投入されてしまう――中間報告は、そんな懸念を「底辺への競争」のシナリオとして指摘している。
そのような懸念を持つのは、中間報告をまとめた専門家たちだけではなかった。
オープンAIの安全対策のためのAI開発チーム「スーパーアラインメント」を主導してきたヤン・ライカ氏は、中間報告が公開されたのと同じ5月17日、Xに辞任のメッセージを投稿。同社が掲げる人間を超えるような汎用AI(AGI)開発の現状について、こう指摘している。
同チームを率いてきたもう1人、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏も5月14日に退任している。
サツケバー氏は、2023年11月の同社CEO、サム・アルトマン氏に対する突然の解任劇で、解任側として動いた。解任劇の背景には、同社が安全性よりもスピード重視に傾いている、との懸念があった。
※参照:アルトマン氏CEO復帰、オープンAI解任劇の火種となった1本の論文とは?(11/23/2023 新聞紙学的)
ライカ氏の投稿を受けて、アルトマン氏と社長のグレッグ・ブロックマン氏は5月18日、連名で482語に上る声明を公開。
安全性に関するオープンAIのこれまでの取り組みを説明し、「私たちは、大きなプラス面を実現することと、深刻なリスクを軽減することの両方を信じています」などとしたが、「スーパーアラインメント」についての具体的な言及はなかった。
●不可避なことはない
中間報告は、そう述べる。
中間報告の公開と同じ5月17日、欧州評議会の加盟46カ国と日本、米国を含むオブザーバー11カ国は、AIシステムが「人権、法の支配、民主主義」の基準を尊重することを求める国際条約を採択している。
締結国は、AIによる差別やプライバシー侵害といった人権侵害のリスクの評価と対処策などを策定することになる。
AIのリスクをどれだけ軽減できるか。「不可避なことは何もない」。その通りだろう。
(※2024年5月20日付「新聞紙学的」より加筆・修正のうえ転載)