生成AIのリスクに「生成AIで」どう対応する? NECの取り組みから探る
生成AIがもたらすリスクに生成AIで対応する――。そんな技術の研究開発を進めているNECが、その取り組みについて2024年9月18日、研究開発拠点がある神奈川県川崎市中原区のNEC玉川事業場で記者説明会を開いた。今回はその内容を取り上げ、生成AIがもたらすリスクに生成AIでどこまで対応できるのかについて考察したい。 【画像】NECのセキュリティ分野における研究開発【画像全5枚】
生成AIがもたらす「新たなセキュリティリスク」
「当社が価値創造を支える事業ブランドとして推進している『BluStellar』(ブルーステラ)では、生成AIとセキュリティをキーテクノロジーとして挙げ、両分野の研究開発に注力している。今回の説明会では、特にこの両分野を掛け合わせた『生成AI×セキュリティ』における研究開発の取り組みを紹介したい」 NEC セキュアシステムプラットフォーム研究所 所長の藤田範人氏は、説明会でこう切り出した。 藤田氏によると、同社のセキュリティ分野における研究開発は「Truly Trusted」というコーポレートメッセージのもと、「あらゆるシステムが安全に守られ、正常に動作し続けることに貢献する技術を創出する」ことをミッションとして、「システムセキュリティ」「データセキュリティ」「AIセキュリティ」の3つのテーマについて取り組んでいる(図1)。 その上で、同氏は「従来のAIのリスクに加えて新たなセキュリティリスクが顕在化するようになってきた」と指摘し、2024年4月に政府が発表した「AI事業者ガイドライン」から生成AIで特に顕在化したリスクをピックアップしたものを表1に示した。 表1の内容について藤田氏は、「悪用と偽・誤情報のリスクは、生成AIが持つ非常に高いコンテンツの生成品質に起因している。また、ハルシネーションや機密情報の流出は、生成AIの出力が必ずしも制御できるものではないといった特性に基づくリスクだ」との見方を示した上で、「当社はこれらのリスク評価と対策技術によって生成AIリスクを低減し、解消するというアプローチで対応している」と強調した。 今回の記者説明会では、表1の赤枠で囲まれた3つのリスクについて、それぞれの対策技術が紹介された。サイバー攻撃への悪用には「LLM(大規模言語モデル)を用いたセキュリティリスク診断」、偽・誤情報には「偽・誤情報分析」、ハルシネーションには「ハルシネーション対策機能」だ。それぞれの要点は以下の通りだ。 LLMを用いたセキュリティリスク診断 LLMを用いたセキュリティリスク診断は、NECがこれまで培ってきたセキュリティリスク診断の知見や独自のサイバー攻撃リスク診断技術をLLMと組み合わせることで、対話形式によるセキュリティリスク診断のシステムを開発したものだ。利用者はLLMに対して簡単な指示文を入力するだけで専門知識がなくても脆弱性調査や攻撃診断、また対策の立案まで対応できる(図2)。 藤田氏によると、「生成AIおよびLLMと当社のリスク診断技術との連携により、システムに対する攻撃リスクの診断結果を、対策を含めてレポーティングする」というのが特徴だ。