メタ、AIに心理学を応用で「本当に求められている応答を生成する」技術を一歩先へ
メタの研究者による技術「System 2 Attention」
2023年11月、メタに所属する2人の研究者による論文が発表された。 内容は同社が開発した、ジェネレーティブAI(生成系人工知能)のパフォーマンスを向上させる新しい技術。「System 2 Attention」と名付けられたその技術は心理学をベースとしており、生成系AIの言語モデルに取り込むことで、与えられた指示の中で重要度の低い情報を無視し、利用者にとって重要な情報にフォーカスすることでより望ましい応答を生成することが可能になると期待されている。 私たち人間にとっても簡単ではないこのようなタスクをAIに行わせることができるこの技術。いったいどのような仕組みで、私たちのAI利用体験は変わっていくのだろうか。
生成AIの普及により問われる私たちの「質問力」
リリースから1年あまりで全世界での利用者が2億人に届こうかという勢いの「ChatGPT」や、サイトやアプリでイラストを生成してくれるお絵描き系AIなど、目覚ましく普及している「生成系AI」(利用者の指示や質問に応じて文章や画像を作ってくれるAI)。要不要に関わらず最近仕事に活用した、またどんな感じかちょっと利用してみたという人は多いのではないだろうか。 一方で、そのポテンシャルを100%引き出して余すところなく使っている自信がある人はむしろ少数派ではと思う。 例えばChatGPT。基本的には、AIの苦手分野である「倫理的な判断」「機密情報の扱い」などのごく一部のフィールドを除けば、色眼鏡で判断したり説教したりせずになんでも答えてくれる心強い味方だ。 しかしこうなると問われるのが、私たち利用者の「質問力」。「何をどう質問したらいいのか分からない」「使ってみたが思うような回答が得られなかった」というような体験をする人も多く、これを反映して2023年は「ChatGPT活用セミナー」のような講座もにぎわい、「ChatGPTは質問力が9割」という電子書籍も発売された。 私たち人間は普段から無意識に、社会的な文脈のしがらみや道徳的望ましさ、個人的な力動などにより疑問や欲求を抑圧して生きることに慣れている。いきなり「何でもきいていいよ」と言われても、自分が何を知りたいのか明確に言語化するのは意外と難しいのだ。 また、自分が欲するピッタリの回答を得るには丸投げに質問するのではなく、現時点での理解や問題の背景、所在などをフィードしてから尋ねることが必要だが、それにはまず自分の頭の中を整理したり相手の立場に立って欠けている情報を補ったりと、それなりに高度なコミュニケーションが必要だったりもする。