Yahoo!ニュース

オーストリア外相、キラーロボット開発禁止に向けた国際的な枠組み作りを訴え

佐藤仁学術研究員・著述家
(写真:代表撮影/ロイター/アフロ)

 人工知能(AI)技術の発展によって、AIが軍事分野でも活用されるようになり、人間の判断を介さないで標的を攻撃するキラーロボットと称される自律型殺傷兵器(Lethal Autonomous Weapons Systems:LAWS)が登場するかもしれない。人間の判断を介さないで標的の人間を攻撃し殺傷することが非倫理的であると国際NGOなどが自律型殺傷兵器の開発や使用の禁止を訴えている。毎年、国連などの国際会議でも議論されているが、自律型殺傷兵器の開発や使用について禁止すべきか、推進すべきかの足並みは全くそろっていない。アメリカやロシア、イスラエルのように既にAI技術力を有する国は自律型殺傷兵器の開発、使用には一切反対をしていない(中国は使用には反対しているが、開発には反対していない)。現在、オーストリアを含む30か国が自律型殺傷兵器の開発と使用には反対している。

「人の生死を決めるのは人間、アルゴリズムではない」

 オーストリアの外務大臣のアレクサンダー・シャレンベルク氏は2020年11月にドイツのメディアDeutsche Welleの取材に対して「自律型殺傷兵器には倫理的な枠組みでの議論が必要であり、そのためには対人地雷やクラスター弾禁止のような規範作りが必要です」と語った。またシャレンベルク氏は「人の生死を決めるのは倫理的、道徳的な判断ができる人間であって、ゼロかイチかのアルゴリズムではないです。キラーロボットがこの世に登場してしまう前に、国際社会でルールを作らないといけないです。AIが戦場で使われてしまう前に国家間でしっかりと議論をしていかないといけないし、そのためのプロセスを作っていかないといけません。2021年に自律型殺傷兵器に関する会議をウィーンで開催する予定です。国家、専門家、NGOなどとともに自律型殺傷兵器禁止に向けた枠組みが作っていければ良いと思っています」と語っていた。

 シャレンベルク氏は自律型殺傷兵器も対人地雷やクラスター弾のような規範作りが必要だろうと述べている。対人地雷禁止条約制定は「オタワ・プロセス」と呼ばれ、クラスター弾禁止条約は「オスロ・プロセス」と呼ばれており、世界中のNGOや各国で製造や使用禁止に向けた国際的な規範の枠組み作りを行ってきた。自律型殺傷兵器は対人地雷やクラスター弾と違って、まだ実際の戦争で活用されたことがないので、使用された結果、どのような被害があり、どのような結末となるのか、イメージするのが容易ではない。対人地雷やクラスター弾は実際の戦争や不発弾による被害者などの映像や写真でその悲惨さを訴えて、開発や使用禁止を訴求しやすいだろう。だが、自律型殺傷兵器はまだ実戦で使われていないため、その被害の悲惨さは各個人の想像力によって異なり、恐怖のリアリティがまだない。また3D業務(Dirty:汚い、Dangerous:危険な、Dull:退屈な)は人間よりもAI技術を搭載したロボットの方が適している。

学術研究員・著述家

グローバルガバナンスにおけるデジタルやメディアの果たす役割に関して研究。科学技術の発展とメディアの多様化によって世界は大きく進化してきました。それらが国際秩序をどう変化させたのか、また人間の行動と文化現象はどのように変容してきたのかを解明していきたいです。国際政治学(科学技術と戦争/平和・国家と人間の安全保障)歴史情報学(ホロコーストの記憶と表象のデジタル化)。修士(国際政治学)修士(社会デザイン学)。近著「情報通信アウトルック:ICTの浸透が変える未来」(NTT出版・共著)「情報通信アウトルック:ビッグデータが社会を変える」(同)「徹底研究!GAFA」(洋泉社・共著)など多数。

佐藤仁の最近の記事