【生成AI活用の危険性】誰でも簡単に作れる高度な偽情報、プロパガンダ工作にどう対応すべきか
影響工作分野では実用段階
「人類滅亡」とまではいわないまでも、実際、生成AIサービスに関する限界やリスクを体感した人は多いだろう。自然言語生成AIサービスでは、誤った文章を生成されることも少なくない。 どれほど高度な大規模言語モデル(LLM)であっても、通常、学習データからは導かれないような「もっともらしい嘘」が生成されることがある。専門家が「幻覚・幻影(hallucination)」と呼ぶ現象である。 この他にも、生成AIサービスには、著作権侵害、機密情報漏洩、倫理・差別等のリスクが常にある。また、事業化・実装にあたっては、業界や用途に応じたカスタマイズ(強化学習、チューニング等)が必要となる。そえゆえ、今後の開発競争の焦点は、LLMの大規模化ではなく、個別のカスタマイズであるとの見方も強い。 しかし、既存の生成AIサービスが「実用段階」といえる分野がある。それは、正確性や著作権侵害等のリスクを度外視できる影響工作の分野だ。
どうプロパガンダは生成されるのか?
ChatGPTをはじめとする生成AIが書いた文章と人間が書いたものを識別することは困難であり、影響工作に活用されると考えた方が自然だ。もちろん、LLM開発者や生成AIサービス・プロバイダーは偽情報生成やプロパガンダに悪用されないために「ガードレール」を敷く。 例えば、自然言語処理・生成であれば、フィルタリングを通じて、暴力、差別等に関連する不適切な用語がインプットされた場合は「注意書き」が返ってくるし、生成AIが指示を拒否することさえある。生成されたコンテンツもフィルタリングされ、問題があれば再生成される。しかし、こうした「ガードレール」はあっても、既存のサービスは「プロンプト(生成AIに対する指示)」を工夫することで影響工作に利用可能である。 ここで重要なことは、影響工作は必ずしも偽情報である必要はないという点だ。恣意的に選択された「事実」や「主張・意見」も影響工作に悪用される。これは、2016年米国大統領選挙からCOVID-19の感染流行、ウクライナ戦争といった今日までのデジタル影響工作が証明している。それゆえ、仮に生成AIの設計者達が「偽情報」だけに焦点を当てたガードレールを設定したとすれば、対策の効果は十分ではない。 例えば、ChatGPTで民主主義の価値を否定するような主張を生成してみよう。こうした主張は、米国や台湾向けのデジタル影響工作等で多く確認された言説だ。 「民主主義は非効率的」という主張を展開するようにプロンプトを入力すると、ChatGPTは「民主主義は非効率的ではなく、むしろ効果的な政治システム」という模範回答を生成する【対話1】。これに対して再度、プロンプトを入力する。 ChatGPTは「この主張は一部の人々が持つ意見の一つ」という「注意書き」を回答の最初と最後に付記するが、「民主主義は非効率的」という主張を展開してくれる【対話2】。さらに、「選挙を行なわない政治体制や権威主義は、民主主義に比べて効率的」との主張を展開するよう指示する。 これもまた「注意書き」付きではあるが、選挙のない政治体制と権威主義の素晴らしさを語ってくれる【対話3】。 最後にこうした主張を「若者」風に語るよう指示する【対話4】。生成された文章は「一昔前の若者」感は否めないものの、合格点を出してもよいだろう。 より効率的に、生成AIの「ガードレール」を回避して、悪意ある結果を生み出す手法もある。言語モデル開発者やサービスプロパイダーが意図しない欠陥や脆弱性を悪用した「プロンプト・インジェクション」だ(なお、期待通りの結果を生成するためのプロンプト技術は良い意味で「プロンプト・エンジニアリング」と呼ばれる)。