<AIの米中覇権争い>新たな技術が変える軍事バランスと安全保障リスク
「AIに判断」の危険性
この論説は、近年のAI技術の急速な進歩による功罪、特に様々な分野での社会の進歩への貢献と同時に潜在的なリスクへの対応強化の必要性を訴えると共に、AIの軍事利用が安全保障政策に与える重大な影響について警鐘を鳴らすものとして、参考となる。 安全保障面ではAI技術には、情報処理能力の向上等のメリットと共に自律的致死兵器の問題等のリスクがあることを指摘し、また、中国がAI軍拡のために大規模な投資を行っていることに注意を喚起している。中国は、情報処理能力に必要なデータ量や豊富な人材を保有し、現在、米国によりマイクロチップへのアクセスを制限されているが、これも1~2年で追いつく可能性があり、AIの軍事利用の先端技術をめぐる米中の覇権争いは続くであろう。 AI技術のレベルに差が生じれば軍事バランスにも大きな影響が出ることになるので、すべての国家にとって防衛力強化のための課題となっている。 ナイは、AI軍事利用の問題点として人間の意思決定を経ることなく発動される自律型致死兵器が武力紛争下での文民の保護に悪影響を与えることやAI技術が生物兵器の開発やテロリズムに活用される危険から、国際的な歯止めの必要性を指摘している。
現代の戦争では意思決定の迅速性が勝敗の鍵ともなる。AIはこの面で重要な役割を果たすが、飛来するミサイルへの対応など意思決定の時間が極めて短い場合、機械に判断を任せることにもなりかねない。 AIの軍事利用の規制には、核不拡散体制のようなグローバルな規制と地雷や特定通常兵器使用制限禁止条約のような人道的観点からのアプローチがあろう。前者については、AI技術の汎用性が高く、そもそも各国内での規制や管理も不充分で、また、実効性を担保する査察制度も困難と思われ、核不拡散体制を参考とするとのナイの示唆は現実性が乏しいように思う。 他方、人道面のアプローチでは、AIを用いる軍事行動の最終判断に人間の意思を介在させる義務や文民の保護に十分な配慮ができない自律的致死兵器の使用態様の禁止を定める条約等が考えられる。しかし、ロシアや中国はそのような条約には反対とのことでもあり、また、地雷禁止条約の様に条約ができても参加しないであろうから実現可能性は低い。ただ、例えば、核兵器の使用の判断についてはAIに委ねてはならないといった規範は意味があり実現可能性もあるのではないか。