自律型殺傷兵器開発に対する有識者4人の懸念:英国Daily Mailで語る

赤十字国際委員総裁のペーター・マウラー氏(写真:ロイター/アフロ)

 AIの発展によって軍事分野でのAI活用も推進されてきている。AIを搭載した兵器が人間の判断を介さないで、兵器自身が判断して標的や人間を攻撃してくることが懸念されている。「キラーロボット」と称される自律型殺傷兵器(Lethal Autonomous Weapons Systems)は、まだ実戦で活用はされていないが、そのような自律型殺傷兵器を規制する法律や制度はない。人間の判断を介さないことから道徳・倫理的な観点からNGOなどが開発に反対をしている。

 例えば、韓国サムスンの関連企業が開発したSGR-A1は北朝鮮との国境に設置され、監視と偵察をしており、銃も搭載しているので標的を攻撃することもできる。近い将来にはこのような偵察機やドローンなどAIを搭載した兵器自身が判断して標的や人間を攻撃してくることが危惧されている。特に偶発的な発射や誤爆による非戦闘員(一般市民)への攻撃や国家間の紛争につながる恐れが懸念されている。一方で、ロボット兵器による戦闘で戦場の無人化が進み、敵国の兵士や一般市民は殺害の対象になるが、自国の軍人は戦場に行かなくてもよくなることから、軍人が帰還後に心身の不調で社会復帰できずに社会課題になることは低減され、自国の軍人の生命は守られる。

 英国のメディアDaily Mailでは、自律型殺傷兵器について2020年1月に有識者4人にインタビューを行って、各人がそれぞれの観点から自律型殺傷兵器の開発に対する懸念を述べていた。

 赤十字国際委員(ICRC)の総裁のペーター・マウラー氏は「兵器による攻撃に際しては、何らかの人間の関与、コントロールが必要です。戦場で攻撃の判断が正確にできるのは、人間だけです。ロボット兵器には、戦闘員か非戦闘員かなどの区別や標的の識別はできません。自律型殺傷兵器の国家間でのコンセンサスを形成することは、最も難しいことです。驚くべきことではないですが、AIを搭載した自律型殺傷兵器を開発できる国は、そのような兵器を開発できない国と比べたら、国際法で規制するのには反対しています」と語っていた。

 ロボット兵器国際委員会(International Committee for Robot Arms Control)のチェアマンのノエル・シャーキー氏は「自律型殺傷兵器に搭載されたAI技術を過信してはいけません。どのようなAI技術のアルゴリズムも、複雑な紛争下での状況においては、精確に標的を識別して攻撃を行うことは非常に難しく、AIの判断を単純に信用してはいけません」と兵器に搭載されるAI技術に対する懸念を語った。

 インディア・リサーチセンター(India Research Center)のチェアマンのアヌ・シャルマ氏は「AIの軍事利用で最も重要なことは人間の生命を守ることであり、それが国家の安全保障の根幹です。人間の生命は軍人の生命も含まれます。兵器による攻撃には人間の判断は必要ですが、そもそも自律型殺傷兵器が開発されないことが重要です」と人間の安全保障の観点から自律型殺傷兵器の開発には反対するとコメント。

 世界63ヶ国から約150のNGO団体で構成されているキラーロボット・ストップ・キャンペーン(Campaign to Stop Killer Robots)の代表のメアリー・ワレハム氏は「ブラジル、オーストリア、カナダなど約30ヶ国がキラーロボット、自律型殺傷兵器の開発には完全に反対しています。また多くの国はこのような兵器に対するある程度の規制や条約などを求めています。一方で、アメリカやロシアといった少数だが超大国は自律型殺傷兵器の規制や条約に対して懐疑的で、開発を推進していこうとしています」と現状の各国の規制に対する姿勢から米ロの2大国が自律型殺傷兵器の開発に反対していないことに懸念を表明していた。