チャットボットと「対話」できるのか? 言語脳科学者がまだ“対話「風」AI”に過ぎないと指摘する納得の理由
近年話題の対話型AI「チャットボット」。言語脳科学の分野において、数々の賞を受賞した東京大学教授・酒井邦嘉さんは、著書『デジタル脳クライシス』の中で、チャットボットを対話「風」AIと捉え、問題点を指摘している。言語モデルの角度から考える、チャットボットが克服すべき課題について、本書から一部を抜粋・再編集して解説する。 ■チャットボットと「対話」できるのか? チャットボット(chatbot)とは、テキストや音声で人と言葉のやり取り(チャット)ができるロボットのことです。 言葉のやり取りといっても、チャットボットには人の心が分からない以上、対話や会話と言えるものではありません。誤解を招くことのないように、「対話型AI」ではなく「対話風 AI」と言うべきです。 チャットGPTに代表されるような「対話風AI」の利用が広がっていますが、その実体は何でしょうか。チャットGPTなどのAI自体に説明させれば、「AIが言葉を理解して人と会話するコンピューター・システム」といったものになるでしょう。 しかし、そもそも相手の意図や言葉を「理解」する設計ではありませんし、最低限の「会話」にすらなっていないのですから、それは大きな勘違いです。質問に答える形をとることで、人間側があたかも対話であるかのように錯覚してしまい、そのことをプログラムが利用しているだけなのです。 合成AIが言葉の「意味」を扱う方法として、人間が設定した主題(トピック)を含む文書データで、どのような単語が含まれるかを統計的にAIに学習させるモデル(「トピックモデル」と呼ばれます)があります。 このモデルによって、逆に特定の単語が現れる確率から主題を推定できますが、意味を大まかに分類するだけです。主題の設定を自動化してしまうと、今度は人間がAIの出した結果に縛られたり、惑わされたりしてしまいます。 たとえば、昭和の歌謡曲を主題とする意図で「美空ひばり」という名を出したのに、AIが日本の歌手全般を主題にしてしまうといった混乱がありえます。意味は多面的な要素を持つため、一義的な主題化やカテゴリー化では明らかに情報不足なのです。まして人が持ちうる意図の解析を実現するには、長い道のりがありそうです。 実際、チャットGPTの制限事項として、「もっともらしく聞こえるが、意味のない回答を出すことがある」そうです。意味が分からないからといって、合成AIが犯罪や中傷に利用されてはなりませんから、不適切な要求を受け付けないような制限が必要です。
【関連記事】
- 【テスト記事 デジタル脳クライシス_P26―33】スマホが招く「一億総無脳化」とは? ネット検索、合成AI、SNSが及ぼす脳への悪影響
- 【テスト記事 デジタル脳クライシス_P46―55】チャットボットと「対話」できるのか? 言語脳科学者がまだ“対話「風」AI”に過ぎないと指摘する納得の理由
- 「スマホが脳の発達を妨げる」子ども233人への3年間追跡調査で見えた衝撃の事実 脳を守るためにできること
- オンライン会話での脳活動は「ひとりでボーッとしながら何も考えていない」状態と同じという驚きの実験結果【スマホはどこまで脳を壊すか】
- 1日3時間以上のスマホ使用で、勉強も睡眠も台なしに【スマホはどこまで脳を壊すか】