金融行政方針でも言及「生成AI」、金融庁やFISC調査での「見解と示唆」とは?
この8月に公表された金融行政方針では、金融分野における生成AIに関しても触れられた。本稿では、すでに融資審査やモニタリングの自動化ツールとしても広く活用が進んでいる金融庁やFISCの「金融機関向けAI利活用調査」の一部を紹介する。利用者保護や金融システムの安定・信頼確保の観点を中心に、金融庁やFISCが言及するAI活用への期待と潜在的なリスクについて解説しよう。 【詳細な図や写真】「現状の生成AIは発展途上の技術、としてみなしていることに留意が必要」(出典:金融庁 金融行政方針2024事務年度金融行政方針2024事務年度金融行政方針 本文 p10)
「キーワードとしての生成AI」と金融庁の理解
生成AIは、学習データから音声、文章、画像をはじめとしたコンテンツの生成を可能とするアルゴリズムそのものだ。 もはやブームと言ってよい生成AIだが、金融庁は生成AIを客観的な視点で評価している様子がうかがえる。実際、金融行政方針2024事務年度 金融行政方針において金融庁は、次のように述べている。 ・金融分野においても、生成AIをはじめとするAIは業務効率化や新たな金融サービスの創出等を通じた生産性向上につながることが期待される ・一方、利用者保護や金融システムの安定・信頼の確保の観点から潜在的なリスクも指摘されている すなわち、現状の生成AIは「なんでも完璧にこなすツール」ではなく「発展途上の技術」としてみなしていることに留意が必要なのだ。 一部の国内金融機関ではすでに生成AIを業務プロセスに組み込んでいるものの、他者(社)の知的財産の無断利用・引用を完全に排除することは現状では困難ともいえる。 また、金融機関職員が社内ルールに反して生成AIを審査手続きなどに利用したことにより、行庫内の秘匿すべき情報やデータが外部に漏えいした事案も確認されている。 こうした点を踏まえ、今次金融行政方針では、次のように今後の活用方針を示した。 ・金融機関における健全かつ効果的なAIの積極的な利活用を慫慂(しょうよう)するためのディスカッション・ペーパーを策定する ・リスク分析や金融機関に対するモニタリングへのAIの利活用など、金融庁自身における健全なAI利活用も検討する 金融機関が健全に生成AIを活用する上では、出力された結果の公平性の担保が挙げられる。よくも悪くも生成AIの性能はインプット情報たる各種データに強く依存する。 特定のインプット情報、偏ったインプット情報等を学習させれば、当然に出力結果たる回答に各種バイアスが生じるためだ。公平性に欠け、かつ倫理面でも問題のある結果を仮に金融機関が各種業務に利用・適用した場合、顧客からの信任を失墜することになりかねず、健全性が確保されない恐れがある。 そのため金融庁は、生成AIがもたらすリスクにもフォーカスし、金融機関に利用に際しての留意を求めているものと理解できる。