米国国防総省、軍事におけるAIの倫理的活用ガイドライン発表「歴史上、最も倫理的な戦略」

マーク・エスパー国防長官(写真:ロイター/アフロ)

 アメリカ国防総省が軍事におけるAI(人工知能)の倫理的活用のガイドライン・レコメンデーションを2020年2月に正式に採用したことを発表した。

 AIの倫理的活用のガイドラインは2019年10月に、国防総省のアドバイザリーボード「Defense Innovation Board」が策定していたもので、この度正式に採用された。今回の国防総省のAI技術の倫理ガイドラインは、2019年2月にトランプ政権が提示したAI技術とサービスの分野で世界のリーダーシップをとっていくことを目指す「American AI Initiative」とも密接にリンクしている。

 今回のガイドラインでは、AIの軍事利用について以下の5つの観点から倫理的な使用に関する規定を明記。

1.Responsible(責任感のある):AI技術の開発、軍事での責任あるAIの活用。AIが適切な判断と対応ができるようにする

2.Equitable(公平な):AI技術の活用において偏見や意図しない展開が起こらないように熟慮する

3.Traceable(追跡可能な):AI技術の開発、使用において透明性を確保して追跡可能とする

4.Reliable(信頼できる):安全で安心できるAI技術を活用する

5.Governable(統治可能な):AIが意図しない行動を起こさないように常に検知し管理する

「歴史の中で最も倫理的な戦略」

 マーク・エスパー国防長官は「アメリカは国家安全保障のためにAI技術の活用を積極的に推進していき、AI技術の開発をリードしていき、同盟国との連携も深めていく必要があります。ルールに則った国際秩序の維持と将来の戦場での安全の確保のためにも、戦略的なポジションをとっていく必要があります。AI技術は将来の戦争の体系を大きく変える可能性を持っています。しかしアメリカの責任ある行動と倫理に対するコミットメントは変わりません。アメリカ軍は過去の歴史において、新しい技術を多く軍事技術として採用してきましたが、AI技術の倫理的な利用ガイドラインは国防省の中でも最も倫理的な戦略となります」とコメント。

 AI技術の発展は軍事分野でも活用が進んでいる。Googleでは従業員がAI技術の軍事への利用に反対して署名活動も行っていた。現在、人間の軍人が行っている3D業務(Dirty:汚い、Dull:退屈な、Dangerous:危険)はAIを搭載したロボットの方が適切であり、実際に既に監視業務などはロボットによる代替が進んでいる。今後、AI技術のますますの発展によって、自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)やキラーロボットと称されている、人間の判断を介さないでAIを搭載した兵器やロボットがロボット自身の判断で標的や人間を攻撃してくることが懸念されている。特に市民か軍人かの判断は難しいといわれ、人間の判断を介さないで、ロボットが人の生死を決めることに対する倫理的、人道的な側面での懸念が高い。AIの軍事活用は、エスパー国防長官が語っているように「最も高い倫理的な戦略」が求められている。

 AIの軍事利用はNGOが声高に反対しているが、一方で、AIの軍事活用はコスト削減と軍人のメンタル面でのストレス低減にもつながる。帰還した軍人がトラウマや身体的障害で社会復帰できないことがアメリカでは社会課題にもなっている。そのためAIを軍事に積極的に導入しようとする動きもみられる。

 但し、ガイドラインは、あくまでもレコメンデーション・ガイドラインである。実際にAIを活用して、このガイドラインで規制を訴えているような非倫理的な軍事利用をされても、法的な拘束力は全くない。