AIモデルに「不要な知識」を忘れさせる新技術。より効率的なAIが作れるかも
東京理科大学と日本電気の研究グループは、大規模視覚言語モデル(Vision-Language Model、VLM)において、特定の情報だけを認識しないように“忘却”させる技術「Black-Box忘却」を開発した。同技術により、必要な機能についてのみ大規模モデルと同等の性能を発揮できる小規模モデルの構築や、情報漏えいリスクの低減に貢献すると期待されている。 【画像】従来のテキストプロンプトのパラメトリゼーション法(左)と、潜在コンテキスト共有(右)の概要 画像およびテキスト入力に対応するVLMは、訓練データにない新しいクラスも認識できる「ゼロショット分類」の能力を持つ一方で、実用的な場面ではすべての情報を処理する必要はなく、むしろ不要な情報がコスト増加や情報漏洩の原因となる場合がある。たとえば、自動車の自律走行システムでは、車両や歩行者、交通標識などを認識できれば十分で、それ以外の情報を処理する必要はない。 そこで注目されるのが、VLMから不要な情報を忘れさせる技術だ。従来の選択的忘却手法は、モデル内部の構造やパラメータがすべて分かっているWhite-Box条件が必要であり、実際に商業利用されている多くのBlack-Box条件下のモデルには適用が困難だった。 本研究で開発されたBlack-Box忘却では、「潜在コンテキスト共有(Latent Context Sharing)」という新たなパラメトリゼーション法を導入することで、Black-Box条件下でも選択的忘却を実現している。 潜在コンテキスト共有は、AIが処理する指示文であるテキストプロンプトを分解し、各プロンプトの共通部分と固有部分を分けて効率的に最適化する手法。テキストプロンプトを高次元ベクトルとしてパラメトリゼーションする従来手法と比べて、最適化の次元数を大幅に削減し、求解性能を高めつつ、プロンプトの表現能力を維持できるという。実証実験では、従来よりも効率的かつ高精度なモデル調節を確認できたとしている。 選択的忘却技術はVLMの運用において、「忘れられる権利」に基づいて特定の情報をモデルから削除したり、大規模モデルをより軽量化してコストを削減したり、テキストから画像を生成する際の内容をより制御しやすくしたりすることが期待されている。 研究グループを主導した入江准教授は、「不要な機能を忘却させることができれば、必要な機能に集中した軽量で効率的なモデル構築が可能になるかもしれない」と述べ、今後の研究の発展に期待を寄せている。
PC Watch,浅井 淳志