異なるAIがサイバー攻撃/防御/評価を分担して実行、最適な防御策に導く―富士通の新技術
富士通は2024年12月12日、セキュリティスキル/ナレッジに特化した複数のAIエージェントを活用する「マルチAIエージェントセキュリティ技術」の開発を発表した。未知の脆弱性に対する攻撃、生成AIへの攻撃といった新たな脅威に“先手を打つ”プロアクティブなセキュリティ対策を、AIエージェントによる自動化で支援するもの。 【もっと写真を見る】
富士通は2024年12月12日、セキュリティスキル/ナレッジに特化した複数のAIエージェントを活用する「マルチAIエージェントセキュリティ技術」の開発を発表した。未知の脆弱性に対する攻撃、生成AIへの攻撃といった新たな脅威に“先手を打つ”プロアクティブなセキュリティ対策を、AIエージェントによる自動化で支援するもの。 富士通によると、脆弱性や新たな脅威への事前対策を支援するマルチAIエージェントセキュリティ技術は「世界初」だという。 「三人寄れば文殊の知恵」? 役割の異なるAIエージェントを組み合わせる AIエージェント(エージェンティックAI)とは、AIがユーザーの目的や環境を理解し、目的達成に向けて「自律的に」タスクを計画し、実行する技術だ。富士通では2024年10月に「Fujitsu Kozuchi AI Agent」を発表しており、たとえば会議に“参加”して議論の活性化や生産性の向上を支援する「会議AIエージェント」などの用途提案を行っている。 今回発表されたマルチAIエージェントセキュリティ技術は、このAIエージェント技術をさらに発展させた、複数のAIエージェントが協調してより複雑な課題を解決する「マルチAIエージェント」技術を、セキュリティ分野に適用したものとなる。 具体的には、異なる役割とスキルを持つ複数のAIエージェントを連携させることで、新たな脅威に対するセキュリティ対策の検討や検証を自動化し、プロアクティブなセキュリティ対策を実現するものだ。AIエージェントには次の3種類がある。 ・攻撃AIエージェント ITシステムを侵害するための攻撃シナリオを作成するTTP類推エンジンを備える(TTP=戦術/技術/手順の意味) ・防御AIエージェント 企業のリスクプロファイル(リスク評価結果)に基づいて、防御策を提案する技術を備える ・テストAIエージェント 本番システム環境を模した検証用の仮想環境「サイバーツイン」を自動構築し、攻撃と防御による影響を分析する技術を備える その名前からもわかるとおり、3つのAIエージェントはそれぞれ「役割」が異なる。攻撃AIエージェントと防御AIエージェントは個別に攻撃/防御シナリオを作成し、テストAIエージェントはそれらをサイバーツインに適用して、システムへの影響を分析する。言わば、異なるスキルを持つ“3人の専門家”が異なる視点から議論を戦わせ、そこで出た結論を参考に、セキュリティ担当者が最適な対策を最終判断するという仕組みだ。 AIエージェントによって、攻撃シナリオと防御シナリオの作成、仮想環境での検証が自動的に行われるため、膨大な数の脆弱性や新たな脅威に対しても、実際に攻撃を受ける前に防御策を提案できる。さらに、TTP類推エンジンによって未知の攻撃に対する防御シナリオを作り出し、より早期に(事前に)対策を実行できる。 富士通によると、「ChatGPT」が提案するセキュリティ対策の正答率が70%にとどまった一方で、マルチAIエージェントの正答率は95%に達したという。また、これまで数十日かかっていた新たな脅威への対応が数時間で完了したり、現場のセキュリティ対応コストが3分の1に削減されたりする効果が見込めるとしている。 富士通では、2025年1月から同技術の一部を、カーネギー・メロン大学が主導するAIエージェント基盤「OpenHands」で公開し、2025年3月からはトライアル提供を開始する予定だ。 富士通研究所長 執行役員EVPの岡本青史氏は、同技術が実現した背景には「共創学習」「セキュアエージェントゲートウェイ」「AIワークフロー制御」の3つの技術があると説明。「ここに富士通の独自性が発揮できる」と述べた。 また、マルチAIエージェント技術の適用先はセキュリティ分野に限られるものではなく、たとえばサプライチェーン最適化分野などでも活用できると説明した。 不正なプロンプトによるLLM攻撃を防ぐ「生成AIセキュリティ強化技術」も発表 もうひとつ発表されたのが、イスラエルのベングリオン大学との共同開発による「生成AIセキュリティ強化技術」だ。具体的には、生成AI(LLM:大規模言語モデル)のセキュリティ耐性を自動チェックする「LLM脆弱性スキャナー」、攻撃を自動的に防御/緩和する「LLMガードレール」により構成される。 生成AIを組み込んだシステムが急速に普及する一方で、生成AIに不正な命令(プロンプト)を与えて意図しない動作をさせる「プロンプトインジェクション」などの新たな攻撃手法も登場している。こうした脆弱性を発見するのがLLM脆弱性スキャナー、発見された脆弱性への対策を適用するのがLLMガードレールだ。ここでは前述した3種類のAIエージェントが活用される。 LLM脆弱性スキャナーでは、同社が蓄積した3500以上のLLM脆弱性データベースに基づいて、攻撃AIエージェントが「攻撃プロンプト」を作成。これを生成AIシステムに送信し、得られた回答をテストAIエージェントが評価する。こうした仕組みにより、人手によるテストでは検出が困難なLLMの脆弱性を、高精度に検出できるという。また、脆弱性のチェック結果はダッシュボードで可視化され、セキュリティの専門家ではない開発者であっても、どのようなリスクがあるのかを容易に確認できる。 またLLMガードレールは、LLM脆弱性スキャナーが検出した脆弱性の情報に基づき、LLMが不適切な回答をしうる攻撃プロンプトを拒絶する「ガード規則」を自動作成することで、リスクを抑止する。 この生成AIセキュリティ強化技術については、2024年12月からCohereと技術実証を開始し、将来的には富士通が開発するLLM「Takane」へも展開する方針だ。 文● 大河原克行 編集● 大塚/TECH.ASCII.jp