AIとの会話は保存されている。プライバシーは大丈夫なの?
AIの後ろにいる人間の存在…。 ChatGPTの登場以来、自然な会話でAIへ尋ねるシーンって増えてきたように感じます。でも、つい相手が人間ではないからといって、いろいろ話しすぎるのは考えものです。このほどGoogle(グーグル)のAI「Gemini」のデータ保存実態が明らかになってきました。
Geminiとの会話は保存されている
Googleは、これまで「Bard」というAI開発を続けてきましたが、新たに正式にGeminiへと生まれ変わりました。Geminiの評判は上々です。もしかしてChatGPTよりもいいんじゃない? まるで人間味さえ感じるAIだなんて評価されていたり。 ところが、Googleが公表しているプライバシーポリシーからは、その実態の詳細も判明。Geminiのバックには、常に人間のレビュアーがいて、品質向上のために活躍しています。とりわけ、Geminiに語りかけたのに望んでいた反応が得られなかったというシーンで、このレビュアーが登場。どういう内容をユーザーが問いかけ、どこの反応がまずかったかを逐一分析し、次回以降の改善に役立てているんだとか! これを可能にするためには、Geminiへ語りかけた内容が、すべて保存されていることが前提。プライバシーポリシーには、最長3年もの間、ユーザーとGeminiとのやりとりが、Googleによって保存されていることが記されています。たとえユーザーがGeminiのアプリを消去したりしても、すでに会話した内容は決して消すことができません。
プライバシー保護は謳われているものの…
便利なAIアシスタントは人気を博しています。でも、こう聞くと怖くも感じますよね。Googleは、会話の保存の際に匿名化に努め、プライバシー保護に配慮していると説明。自動ツールによって、保存される会話のデータから、ユーザーのGoogleアカウントや電話番号などを抹消しているそうです。 機密性の高い情報を会話で打ち込むことのないようにしてください。Googleの製品サービスならびに機械学習技術の向上のため、当社やレビュアーによってチェックすることを望まない、いかなるデータの入力についても注意が必要です。 こんなふうにGoogleは利用規約に記しています。AIに手渡したものは、自分のあずかり知らないところで使われてしまっても仕方ないという認識は大切でしょうか。そもそもAIアシスタントをめぐっては、会話が筒抜けという危険性は以前から指摘されていました。どんなふうにAIとつきあっていくのか? しっかり各自で考えておかなければいけませんよね。 Source: Google
湯木進悟