生成AIは諸葛孔明を超えるか?生成AIを活用した外交・軍事の政策・戦略決定のリスク
生成AIを政策・戦略決定の場に導入するために、米国防総省は軍事演習を通じて5種類のLLMの軍事計画能力をテストしているそうだ。 AIが人間の手を離れて外交や安全保障を支配するというようなSF的な世界はまだ先だが、軍師的なポジションには早晩つくだろう。 もっとも、最新研究によれば、適切なチューニングを施していないAIは何らかの形でエスカレーション行動を取るとのこと。どのように活用すべきか。大きな課題に直面している。 (小林 啓倫:経営コンサルタント) 【関連写真】AI軍師は意外にエスカレーションしがちだという ■ ChatGPTが軍師になる時代 仕事の効率化からプライベートな悩み事の相談まで、すっかり私たちの日常に定着した感のある生成AI。その活躍の場は、いまや外交や軍事の分野にまで広がろうとしている。 既に生成AIや、それを動かすエンジンであるLLM(大規模言語モデル)などの技術を、具体的な政策・戦略決定の場に導入しようという試みが行われている。 たとえば、ブルームバーグの報道によれば、米国防総省は疑似的な軍事演習を通じて、5種類のLLMの軍事計画能力をテストしているそうだ。 【関連記事】 ◎The US Military Is Taking Generative AI Out for a Spin(Bloomberg) LLMの具体的な製品名は明かされていないが、同記事によれば、「小規模な紛争からスタートして、インド太平洋地域全体へとエスカレートする世界的危機」に対して軍はどう行動すべきか、LLMに検討させるという実験を行っているとのこと。この演習に参加した米空軍大佐は、「ごく近いうちに(LLMが)軍に配備される可能性がある」と述べている。 興味深いことに、ブルームバーグは自社でも簡単な実験を行っている。 米国と中国の軍事文書を含む6万ページのオープンソースデータをDonovan(サンフランシスコを拠点とする新興企業Scale AIが開発した生成AIで、同社はそれが既に軍の意思決定に使用されていると主張している)に与えた上で、「米国は台湾紛争を抑止できるか」「紛争が勃発したらどちらが勝つか」と質問してみたそうだ。