企業が生成AIを使う時に気をつけたい3つのこと、万全な管理のコツは「ユーザーとIT部門の連携」にある
生成AI技術が、ビジネスの現場に急速に普及している。クラウドなどの脅威を調査するアメリカのNetskope Threat Labsが2024年7月に公表した調査結果によると、生成AIを利用する企業の数は1年前の74%から96%に増えた。ほぼすべての企業が利用するようになっている。また、1つの企業が利用する生成AIアプリの数とユーザー数は、どちらも前年比で3倍に増えた。 【図で見る】96%の企業が生成AIを利用している ■46%が「生成AIに独自のソースコードを共有」
現状、生成AIの典型的な使い方は、ChatGPTなどの機能がアプリケーションやポータルなどに組み込まれ、ユーザーの検索、複製、編集、コンテンツ作成などの業務を支援するといったものである。 一方で課題もある。生成AIに入力したデータは、生成AIサービス提供者側のコンピューターが学習することになる。そこで、他ユーザーが生成AIに文章などを作成させた際に、自社の機密情報を含む文章ができてしまい、結果として機密情報が漏洩するリスクがある。
同じ調査では、生成AIアプリケーションに独自のソースコードを共有してしまったという内容の事案が、あらゆるデータポリシー違反の46%を占めていることがわかっている。こうした状況を放置すれば、場合によって企業は巨額の損失を被る可能性があるため、生成AIに関するデータ管理には万全の体制で臨む必要がある。 具体的に企業はどんなことに取り組むべきなのか。生成AIを使う時に気をつけたい3つのポイントを解説し、それぞれの問題にどう対処するべきかを、ユーザー側と管理側であるIT部門の2つの立場から考えてみよう。
■ポイント①機密情報の流出に注意する サムスン電子は2023年3月30日、ChatGPT経由で社内の機密情報が少なくとも3件流出したことを公表した。うち1件は、歩留まりや不良設備などを確認するためのプログラムに関連したソースコードをChatGPTに入力し、ソースコードの改善を試みた時に発生した。もう1件は、社内会議の録音データを文書ファイルに変換し、ChatGPTに入力して議事録を作成した際に起きた。生成AIの中核である大規模言語モデル(LLM)は常に「学習」しているため、プロンプトに入力した機密情報も、学習の対象になってしまう。