自信満々に断言されると「嘘でも信じてしまう」理由 生成AIの「もっともらしい」誤回答にも要注意
まして一方に悪意があってより強固に主張をすれば、もう一方はその主張を受け入れてしまうかもしれません。 記憶の曖昧さを知った皆さんに、同じような災難が降りかかりませんように。 ■生成AIの「もっともらしさ」に騙されない 2023年は、生成AIがトレンドとなりました。日本語など、日常的に使う言語で質問をすると、まるで人間が答えているかのように、自然な文章で回答してくれます。こうした新しい技術は、使い方によっては大変便利なものです。
ただ、ChatGPTをはじめとする生成AIは、内容的に間違った答えを返すことがかなり頻繁にあります。間違いのレベルは様々です。 ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識が溢れています。専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、ときに誤った答えを生成してしまうのは必然のことなのです。
この例として非常に興味深いお話を、弁理士をされているSさんから聞きました。 Sさんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、最近、クライアントから法的に間違った主張を堂々とされることが増えたといいます。 そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。 そこでSさんが、ChatGPTに、
「出願したい特許と似たものが、すでに存在するか」 と質問をしたところ、実在しない事例を挙げて、「もっともらしく」返してきたといいます。いわば「ケースをでっち上げる」わけですね。アメリカと日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。 ここで問題となるのは、生成AIの返事の「もっともらしさ」です。先ほどの事故の事例の「言い切った者勝ち」のような現象が、ここでも起こり始めています。