AIチャットボットに個人情報を話してはいけない理由。誰にデータが渡るのか?
2004年、私が大学生だったころのこと(年がバレますね)。外出期間中にAOLインスタントメッセンジャー(これまた古い)のメッセージに自動で返信してくれるAIのプラグインをインストールしていました。 このプラグインは、私のチャット履歴を使って、メッセージに自動返信してくれるというシンプルなものでした。 たとえば、誰かが「元気?」と聞いてきたら、このプラグインは私が最近その質問に対して答えたものを返信します。 おそらく、この話がどうなるかはもう察しがついていると思います。 このプラグインは2日間ほどで、私が友だちに言ったムカつく内容を、友だちに繰り返し発言。私はそのプラグインをアンインストールし、AIのプライバシー(と友情)に関して教訓を得ました。 AIは、この20年間で進化してきましたが、プライバシーに関する問題は変わっていません。AIのチャットボットに話した内容は、誰かに読まれ、繰り返される可能性があります。
AIチャットボットに話したデータが、誰に伝わるのか?
Jack Wallenは「ZDNet」で、Googleは個人情報保護の方針で、「Gemini」(以前の「Bard」)はチャット内のすべての情報を3年間保存しており、人間が日常的にそのデータをレビューしていることを明言していると、指摘しています。 個人情報保護の文書でも、「個人情報に関する内容はGeminiで使用すべきではない」とはっきりと書かれています。以下がその引用です。 人間の評価者に見られたり、Googleに使用されたりしたくない内容は入力しないでください。 たとえば、機密情報にあたると思う内容や、Googleの製品やサービス、機械学習の技術向上に使用されたくない情報は入力しないでください。 これは、あなたの会話は人間がレビューするかもしれないし、AI製品の向上に使われるということを、Googleがはっきりと平易な言葉で言っているのです。 つまり、昔の最悪なAOLメッセンジャーのチャットのプラグインにやられたように、Geminiはあなたがチャットで入力した個人情報を繰り返し使うということでしょうか? それはありません。 人間の評価者が、電話番号やメールアドレスなど明らかな個人情報を排除していると、その文書に書かれています。 しかし、ChatGPTが昨年末に漏洩したように、セキュリティ調査員がトレーニング情報にどうにかしてアクセスしたということは、大規模言語モデルがアクセスできるものは(少なくとも理論上は)、いずれ漏洩する可能性があるということを示しています。