ストックホルム国際平和研究所、自律型殺傷兵器の開発禁止を呼びかける動画作成

(写真:ロイター/アフロ)

 スウェーデンにあるストックホルム国際平和研究所(The Stockholm International Peace Research Institute:SIPRI)は2020年3月27日に、自律型殺傷兵器の脅威を訴える動画「SIPRI Reflection: How to ensure human control over autonomous weapons」を公開した。4月1日・2日に開催される会合「Berlin Forum for Supporting the 2020 Group of Governmental Experts on Lethal Autonomous Weapons Systems」に向けて作成。

▼SIPRI Reflection: How to ensure human control over autonomous weapons(2020年3月)

 自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)はキラーロボットとも称され、AI(人工知能)の発展によってAIを搭載した兵器が、人間の判断を介さないで兵器自身の判断で標的や人間を攻撃して殺してしまうことから倫理的な観点で、NGOや著名人らが開発の反対を訴えている。

 今回の動画でもSIPRIの研究員や法律を専門とした大学教授、国際赤十字、ロボット兵器コントロール委員会などの有識者が自律型殺傷兵器の脅威を伝え、その開発禁止を訴えている。2017年にAI専門家のスチュアート・ラッセル教授らが作成した動画「Slaughterbots」というキラーロボットの脅威を"未来のフィクション"で訴えた動画に比べると、動画に大きなインパクトはないが、AI技術の発展によるキラーロボット登場への懸念とそのような兵器を国際人道法で規制することを訴えている。

 2020年6月に自律型殺傷兵器の政府専門家会合(GGE)が予定されており、そこで国際社会で開発禁止や規制に向けて各国で足並みを揃えていくことの重要性も伝えている。自律型殺傷兵器の政府専門家会合(GGE)は過去にも開催されており、日本からも外務省などが出席し、日本の考えを表明している。自律型殺傷兵器の開発に反対している国もあるが、アメリカやロシアなど大国は自律型殺傷兵器の開発禁止に賛同していないため、今後も国際社会で開発禁止や規制に向けた規範が形成されるのは容易でないだろう。

 AI技術の軍事利用は進んできており、自律型殺傷兵器の開発が懸念されているが、一方でAI技術を搭載したロボットの方が人間の軍人よりも適している業務もある。特に3Dと呼ばれる「Dull:退屈な、Dirty:汚い、Dangerous:危険な」業務はロボットの方が軍人よりも精確で適している。また戦場と兵器の無人化が進むことで、人間の軍人が戦場で生命を落とすことも少なくなる。

▼スチュアート・ラッセル教授らが作成したキラーロボットの脅威を訴える動画「Slaughterbots」(2017年11月)