米国防総省『軍事におけるAIの倫理的な活用ガイドライン』作成:法的拘束力は無し

(写真:ロイター/アフロ)

 アメリカ国防総省のアドバイザリーボード「Defense Innovation Board」は2019年10月に戦争におけるAI(人工知能)の倫理的な使い方に関するレコメンデーション・ガイドラインを発行した。

 AI技術の発展は軍事分野でも活用が進んでいる。Googleでは従業員がAI技術の軍事への利用に反対して署名活動も行っていた。現在、人間の軍人が行っている3D業務(Dirty:汚い、Dull:退屈な、Dangerous:危険)はAIを搭載したロボットの方が適切であり、実際に既に監視業務などはロボットによる代替が進んでいる。今後、AI技術のますますの発展によって、自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)やキラーロボットと称されている、人間の判断を介さないでAIを搭載した兵器やロボットがロボット自身の判断で標的や人間を攻撃してくることが懸念されている。特に市民か軍人かの判断は難しいといわれ、人間の判断を介さないで、ロボットが人の生死を決めることに対する倫理的、人道的な側面での懸念が高い。AIの軍事利用はNGOが声高に反対しているが、一方で、AIの軍事活用によるコスト削減と軍人のメンタル面でのストレス低減にもつながる。そのためAIを軍事に積極的に導入しようとする動きもみられる。

 国防総省のJoint Artificial Intelligence Center(ジョイントAIセンター)のディレクターのJack Shanahan氏は「このガイドラインがAIを搭載した兵器利用の倫理面におけるスタンダードになることを期待しています」とコメント。国防総省は2019年2月にジョイントAIセンターを設立し、国防総省におけるAI戦略を明らかにしていた。

 今回のガイドラインでは、AIの軍事利用について「Responsible(責任感のある)」「Equitable(公平な)」「Traceable(追跡可能な)」「Reliable(信頼できる)」「Governable(統治可能な)」の5つの観点から倫理的な使用に関する規定を明記している。但し、今回のアドバイザリーボードが作成したガイドラインは、あくまでもレコメンデーション・ガイドラインである。実際にAIを活用して、このガイドラインで規制を訴えているような非倫理的な軍事利用をされても、法的な拘束力は全くない。