韓国の大学、「キラーロボットの開発をしない」宣言、「AIの倫理的な使用」に関する分科会立ち上げ

(写真:ロイター/アフロ)

 韓国の国立大学のKAIST(Korea Advanced Institute of Science and Technology)と韓国の防衛関連大手企業のハンファシステムが2018年2月に、人工知能(AI)を活用した自律兵器の開発など軍事研究を共同で推進していくことを発表していた。

キラーロボット開発に世界中の大学からNO

 それに対して2018年3月、オーストラリアのニューサウスウェールズ大学のToby Walsh教授が中心になって、世界中の約30か国のAIやロボットの研究者、エンジニア約60人が、韓国のKAISTに対して「AIの軍事活用はキラーロボットの発展につながることから遺憾である」ことを表明。オープンレターをKAISTのSung-Chul Shin学長に対して発出していた。

 オープンレターの中で「KAISTがAIを活用した軍事研究や開発をやめない限り、KAISTとの協力関係を一切取りやめる」と公に宣言。オープンレターの中で「例えば、KAISTを訪問しない、KAISTの関係者を招へいしない、KAISTが関与しているあらゆる研究プロジェクトに関わらない」と述べている。キラーロボットに発展する懸念のあるAIの軍事活用に向けた研究が中止するまでは、絶交するとの絶縁状を突き付けた。KAISTはあらゆる関係をボイコットされていた。

 オープンレターを受けてKAISTのSung-Chul Shin学長は「大学では自律型兵器の開発は一切行っていない。我々は人権と倫理観を重視した研究開発を行っている。人間の判断が入らないでロボットが自律的に攻撃するような自律型兵器の開発は行っていない」とコメントしていた。そして正式にKAISTのSung-Chul Shin学長は「大学としてキラーロボット、自律型兵器を開発する意思は全くない」ことを明らかにし、「人間の尊厳や人権を無視するような研究や開発は一切行わない」ことも確約。ボイコットはキャンセルされた。

AI搭載兵器の登場で変わる戦場と戦争

 AIの軍事面での活用はロシアや米国などでも進められており、AIを搭載したロボット同士の戦いになり、戦場や戦争の在り方が変わっていくと注目されている。特に従来、戦場で兵士が行っていた3D業務(単調:dull、汚い:dirty、危険:dangerous)の任務の多くがロボットに置き換わっている。北朝鮮と対峙している韓国は地政学的にも軍事面でのAI活用は避けて通れない。韓国では既にサムスンが開発したAI搭載の監視ロボットSGR-A1が北朝鮮との国境に配備されている。画像認識で人が近づいてくることを判断すると警報を発する。発砲には人間の判断が必要とのこと。国境線の監視や警備には人間の目よりも、24時間働き続けても疲れないし、見逃しも少なく広範囲を監視できるのでロボットの方が適している。

「AIの倫理的な使用」に関する分科会立ち上げ

 KAISTは、このほど「倫理的なAIの使用」に関する分科会(サブコミッティ)を立ち上げたことを明らかにした。AIが発展して、人間を超越して、人間に対して脅威を与えるという議論や懸念が多くなされているが、その実態は見えていない。

 特に軍事面でのAIの利用は懸念されている。AIが進化し、自律型ロボット兵器が登場することによって、ロボットが自律的に判断して人間を攻撃してくることも懸念されている。キラーロボットと呼ばれており、「自律型致死兵器システム(LAWS)」の問題は国連でも議題になっている。2018年5月には、Googleがアメリカ軍のドローンの監視強化のためにAI技術の開発をやめるように、Googleの社員4000人以上が反対の嘆願書に署名していたと報じられていた。

 AIの発展によって、監視機能だけでなく、AIが判断して人を殺害することも可能だ。AIの判断によってロボット兵器に人が殺される時代になるかもしれない。人を殺害するのに、人の判断を介さなくなる。AIの進化と軍事的な利用においては、「人間とは何か?」「どうして人は戦うのか?」「ロボットに人が殺されるということは?」といった倫理的な観点からの議論が求められる。