Yahoo!ニュース

ストックホルム国際平和研究所、自律型殺傷兵器の開発禁止を呼びかける動画作成

佐藤仁学術研究員・著述家
(写真:ロイター/アフロ)

 スウェーデンにあるストックホルム国際平和研究所(The Stockholm International Peace Research Institute:SIPRI)は2020年3月27日に、自律型殺傷兵器の脅威を訴える動画「SIPRI Reflection: How to ensure human control over autonomous weapons」を公開した。4月1日・2日に開催される会合「Berlin Forum for Supporting the 2020 Group of Governmental Experts on Lethal Autonomous Weapons Systems」に向けて作成。

▼SIPRI Reflection: How to ensure human control over autonomous weapons(2020年3月)

 自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)はキラーロボットとも称され、AI(人工知能)の発展によってAIを搭載した兵器が、人間の判断を介さないで兵器自身の判断で標的や人間を攻撃して殺してしまうことから倫理的な観点で、NGOや著名人らが開発の反対を訴えている。

 今回の動画でもSIPRIの研究員や法律を専門とした大学教授、国際赤十字、ロボット兵器コントロール委員会などの有識者が自律型殺傷兵器の脅威を伝え、その開発禁止を訴えている。2017年にAI専門家のスチュアート・ラッセル教授らが作成した動画「Slaughterbots」というキラーロボットの脅威を"未来のフィクション"で訴えた動画に比べると、動画に大きなインパクトはないが、AI技術の発展によるキラーロボット登場への懸念とそのような兵器を国際人道法で規制することを訴えている。

 2020年6月に自律型殺傷兵器の政府専門家会合(GGE)が予定されており、そこで国際社会で開発禁止や規制に向けて各国で足並みを揃えていくことの重要性も伝えている。自律型殺傷兵器の政府専門家会合(GGE)は過去にも開催されており、日本からも外務省などが出席し、日本の考えを表明している。自律型殺傷兵器の開発に反対している国もあるが、アメリカやロシアなど大国は自律型殺傷兵器の開発禁止に賛同していないため、今後も国際社会で開発禁止や規制に向けた規範が形成されるのは容易でないだろう。

 AI技術の軍事利用は進んできており、自律型殺傷兵器の開発が懸念されているが、一方でAI技術を搭載したロボットの方が人間の軍人よりも適している業務もある。特に3Dと呼ばれる「Dull:退屈な、Dirty:汚い、Dangerous:危険な」業務はロボットの方が軍人よりも精確で適している。また戦場と兵器の無人化が進むことで、人間の軍人が戦場で生命を落とすことも少なくなる。

▼スチュアート・ラッセル教授らが作成したキラーロボットの脅威を訴える動画「Slaughterbots」(2017年11月)

学術研究員・著述家

グローバルガバナンスにおけるデジタルやメディアの果たす役割に関して研究。科学技術の発展とメディアの多様化によって世界は大きく進化してきました。それらが国際秩序をどう変化させたのか、また人間の行動と文化現象はどのように変容してきたのかを解明していきたいです。国際政治学(科学技術と戦争/平和・国家と人間の安全保障)歴史情報学(ホロコーストの記憶と表象のデジタル化)。修士(国際政治学)修士(社会デザイン学)。近著「情報通信アウトルック:ICTの浸透が変える未来」(NTT出版・共著)「情報通信アウトルック:ビッグデータが社会を変える」(同)「徹底研究!GAFA」(洋泉社・共著)など多数。

佐藤仁の最近の記事