「生成AIは一般論しか答えないから使えない」と言う人が見落としている使い方 (横須賀輝尚 経営コンサルタント)
■真偽不明の情報だらけで使えない?
生成AIは、事実と異なる情報を生成してしまうことがある。これをハルシネーションと呼びますが、これも多くの「使えない論」を唱える人の生成AIを使わない理由です。確かに間違いを出力することもありますし、特に生成AIが世の中に出てきた頃はまだまだ間違った出力が多く、そうした出力内容をスクリーンショットでネタ的にSNSに投稿する、なんてことも多く見受けられました。 しかし、生成AIが生まれてから約1年半。「まったく違う内容が出力された!」「意味不明な回答で使えない」なんて意見、聞かなくなったと思いませんか? そう、生成AIは常に進化しているわけで、精度は上がることはあっても、落ちることはないのです。 現在でも、生成AIが出力するのが100%正しい情報なのかと言われれば、そうとは言い切れない部分があります。しかし、これも考え方と捉え方の違いだと私は思うのです。 生成AIが世間で話題になり始めた当初、「回答が一般論しかない」や「誤った内容が出力されることがある」という批判がたしかにありました。しかし、私は思ったのです。あの時点で、世界の中でも難しい言語といわれる日本語を理解し、日本語で回答しているのはすごいことなのではないかと。そして、ChatGPT3.5の後継として発表されたChatGPT4では、ChatGPT3.5の英語理解能力よりも高い日本語能力を持っていると知り、驚愕しました。 「細かい点は、いずれ修正されていく。小さな欠点にフォーカスすべきではない」私はそう考え、ChatGPTと生成AIの研究を続けました。結果として、その読み通り生成AIの回答精度は高まり、現在に至ります。 繰り返しになりますが、進化することはあっても退化することはないわけです。そういう意味では、いずれこうした正誤や信憑性などについては、議論されなくなると考えるのが正しい理解だと私は考えています。 真偽の確認は現状、たしかに必要です。しかしながらそもそもをいえば、生成AIから出力されるものをそのまま何も考えずに使うのでは、人間が必要ではなくなってしまいます。あくまで出力されたものに対して、さらにいいものにするために人間が頭を使う。これが正しい考え方であり、捉え方なのだと私は思うのです。