ノーベル平和賞受賞者ジョディ・ウィリアムズ氏 「戦争での第3の革命」キラーロボットの脅威を語る

ジョディ・ウィリアムズ氏(写真:ロイター/アフロ)

 ノーベル平和賞受賞者のジョディ・ウィリアムズ氏がTEDで「人間の安全保障とキラーロボット」についてスピーチした動画が2020年6月6日にアップされた。ジョディ・ウィリアムズ氏は1997年に地雷禁止国際キャンペーンと共にノーベル平和賞を受賞。自身のことを動画の中でも「草の根活動家」と呼んでいる。

▼Killer Robots & Human Security | Jody Williams | TEDxGatewaySalon(2020年6月6日)

 スピーチの中でジョディ・ウィリアムズ氏は前半はアメリカの防衛費をあげて「国家の安全保障」に予算を投じるのではなく「人間の安全保障」にもっと予算を投じるべきだと訴えていた。そして後半では「キラーロボット」と称されるAI(人工知能)を搭載し、人間の判断を介さないで兵器自身が標的を判断して、人間や標的を攻撃してくる自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)の脅威について訴えている。ジョディ・ウィリアムズ氏は「戦争での第1の革命」が銃の登場、「第2の革命」が原子力爆弾の登場、そしてキラーロボットの登場は「第3の革命」と位置づけている。

 現在ではドローンによる上空からの攻撃が行われているのに対し、ドローンは遠隔地にいる人間が標的を見つけて判断して攻撃をしているが、キラーロボットには人間の判断を伴わないで、兵器(キラーロボット)が判断して攻撃を行っている。ジョディ・ウィリアムズ氏はそのことが狂気(insane)、不道徳(immoral)、非倫理(unethical)と主張している。

 現時点では実戦の戦場で活用されていないことから、なかなか想像の世界を脱しないキラーロボットについて、ジョディ・ウィリアムズ氏はその脅威を想像させるための例として、「アメリカのキラーロボットの大群が、ロシアのキラーロボットの大群と対峙しても、どのような結果になるのか、誰もわかりません。なぜなら、それらのキラーロボットに搭載されているAIがどのようにプログラミングされているのかはお互いにわからないからです。キラーロボットの性能をテストするのは実際の戦場で活用されるまでわかりません。これは夢物語の話ではないのです」と語っている。さらに「そのようなキラーロボットの開発に多額の投資をするのではなくて、もっと人間の持続的な発展のために使うべきです」と訴えている。 

 ジョディ・ウィリアムズ氏が指摘しているようにキラーロボットは、実際に戦場でどのような振舞いをするのかがお互いにわからない。人間の判断が介さないために、何もしないかもしれないし、お互いに攻撃をしあうかもしれない。「キラーロボット同士の衝突であれば、人間が巻き込まれないから良いではないか?」と思うかもしれないが、キラーロボット同士の偶発的な衝突が大国間での紛争に発展することもありうる。

 「戦争での第2の革命」の核兵器までは、人間の判断で攻撃が行われるため、人間の理性に依拠している。核兵器の使用は地球ごと破壊する恐れもあるから、大国間同士での抑止力となり、冷戦期も冷戦後の現在でも戦争で使用されてこなかった。そして大国による核兵器の所有による抑止力と相互確証破壊が第2次世界大戦後の国際政治の秩序を形成してきたし、大国と同等になり抑止力をつけるために北朝鮮などが核兵器の開発を行ってきた。

 だがキラーロボットが登場し、勝手にキラーロボット同士が判断して、それが偶発的であるにせよ、軍人やプログラマーなど人間がキラーロボットの攻撃判断と攻撃を抑制することができずに、国のリーダーたち人間の意志と関係なく戦争に発展し国際政治の秩序を大きく変えることもありうる。