ノルウェー政府系ファンド、自律型殺傷兵器開発や売買をする企業には投資しない

(写真:ロイター/アフロ)

 ノルウェー政府系ファンドは2020年6月に自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)の開発や売買を行う企業には投資しないことを明らかにした。AI(人工知能)が発展し、軍事分野での活用が進められており、AIを搭載した「キラーロボット」と称される自律型殺傷兵器が人間の判断を介さないで、AI自身の判断で標的や敵に攻撃をしかけることが非倫理的、非道徳的であるとNGOなどがLAWSの開発には強く反対をしている。ノルウェー政府系ファンドでは2004年から投資への倫理的ガイドラインは厳密であり、核兵器、対人地雷、化学兵器などの特定の兵器の開発、気候変動を起こすような事業、人権侵害にあたるような事業を行う企業には投資をしていない。

 今回の自律型殺傷兵器の開発や売買を行う企業への投資の禁止に対して、ノルウェー政府系ファンドは「兵器の使用においては、人間による完全なコントロールと判断が必要であり、AIが判断して攻撃を行うLAWSでは責任の所存が不明瞭であり、戦争の原理から見ても問題が多いのが我々の見解です」とコメントしている。また2019年6月には、ノルウェーのAI技術者や科学者ら約770人がノルウェー政府に対して、ノルウェーがLAWSの禁止に向けて国際的なリーダーになるべきだというオープンレターを提出している。だが、LAWSはまだ実戦で使用されていないことから具体的にどこかの国が開発禁止に向けて主導していることはない。明確にLAWS開発禁止を明言している国もあるがほとんどが小国である。米国やロシア、英国、イスラエル、中国などは軍事分野でのAI活用によって兵器や軍人の効率化が図れることから積極的にAIを活用しようとしている。そのため現時点では、どこかの特定の国ではなくNGOを中心にLAWS開発禁止が叫ばれている。

 AIの活用は民生品や軍事分野での境目がない。そのため民生品向けに開発されたAI技術が軍事分野で活用されることはよくある。そのため、ノルウェー政府系ファンドがLAWS開発を行う企業には投資をしないことを明らかにしたが、投資を受けて開発されたAI技術の利活用先にも目を配って監査していく必要があるのだろう。米国企業のGoogleは、以前からAI開発には注力しているが、軍事分野でのAIの利用はしないことを2018年6月に宣言している。