アレン元米軍司令官、AIの戦争での活用「アメリカがリーダーシップをとっていくべきだ」

ジョン・アレン元司令官(右)(写真:ロイター/アフロ)

 米軍のジョン・アレン(John Allen)元司令官が2019年10月にプリンストン大学で講演を行い、戦争でのAI(人工知能)の間違った活用による武力紛争勃発について警鐘を鳴らした。アレン氏はプリンストン大学のコンピュータサイエンス・公共政策学の教授のエドワード・フェルトン(Edward Felten)氏とともに登壇。

「技術に完全に支配されていくことの危険性を把握しておくべき」

 アレン氏は「AI技術の発展と進化は大きなチャンスでもあるが、我々の想像を絶するような大規模な破壊をもたらす可能性もありうるし、そのことを一番懸念している」と語った。続けて「戦争は常に、人間と技術のバランスを維持してきた。軍はいつも、新たに開発された技術を先に利用してきた、いわゆるアーリーアダプターだ。AIの軍事分野での活用によって、大きな利便性をもたらしたことは言うまでもないし、これからも軍事分野でのロジスティックの効率化、機器のメンテナンス、諜報活動(インテリジェンス)、敵の標的のセンサーや情報収集の分野などでAIの活用は進んでいくことは明白だ。しかし、技術の発展が人間の能力をはるかに超えてしまうことと、技術に完全に支配されていくことの危険性を把握しておく必要がある」と語った。

「新しい技術を軍事に活用する時には、コミットメントと倫理観が必要」

 AIの軍事分野での活用は進められているが、その一方でキラーロボットの開発が懸念されている。キラーロボットとは自律型殺傷兵器(Lethal Autonomous Weapons Systems:LAWS)のことで、人間の判断を介さないでロボット自身が攻撃を仕掛けてくる。人間の判断を介さないことからロボットが暴走して残虐な攻撃、殺戮に繋がるのではないかといった懸念や、ロボットが人間を殺害するという倫理的な観点からキラーロボットの開発が懸念されている。

 「AIを活用した致死的な技術によって戦場において、不適切に人を殺害することがより簡単になる。攻撃する際に必要なのは標的を識別して、人間自身が判断することだ。アメリカ軍は武力の行使と軍事的行動において、これまで以上に倫理的な観点での考慮が求められるようになる。特に人間による攻撃の判断と介入が必要で重要になる。標的の攻撃が正しいことかどうかの判断が必要になる。本物の攻撃の標的なのかどうかの識別が必要になってくる。例えば、軍人なのか市民なのかどうかといった識別をしてからの攻撃だ。攻撃の判断にはミッションの目的と明確化が必要になってくる」と語った。

 「AIの開発は止められない。ドローンの自律化も進んでくる。最終的には人間の判断と介入が、軍事攻撃のプロセスに入ることが重要だ。あらゆるアメリカ軍の軍人はAI技術だけでなく、あらゆる新しい技術を活用する時には、コミットメントと倫理観が必要になる。そのためには長い年月にわたっての教育とトレーニングが必要になる」とアレン氏は伝えた。

「AIの戦争活用についての議論はアメリカがリーダーシップをとるべきだ」

 「アメリカだけでなくあらゆる国家は、AI技術を活用した軍事システムを単体で利用し、コントロールすることはできない。このようなAIの技術的進化と、そのコントロールについて全面的に禁止するのか、もしくは一部の機能だけは利用可能にするのか、といった議論を国際社会でしっかりとしていかないといけない。国際法を守らない国家や非国家アクターも常に存在するが、AI技術の軍事での間違った活用を最小限にするように民主主義国家で取り組んでいかないといけない」と強調した。また「自律システムにおけるAIの予測可能なアルゴリズムも国際人道法などで規制すべきだ」と語った。

 アラン氏は「AIの戦争での活用についての国際社会での議論や規範形成の合意に向けてはアメリカがリーダーシップをとるべきだ。アメリカは他の国々と連携しながら、グローバル社会での人権に対する関与、民主主義のリーダーシップの関与を再び強めていかないといけない。我々アメリカならできる」ともコメント。