新技術や新しい価値観を部下に学ぶリバースメンタリング、生成AIの分野では逆にリスクに
■ AI領域で陥りがちなリバースメンタリングのリスク 単に若手社員ですら正解を知らない、というだけなら良いかもしれない。しかし今回の論文では、逆に彼らが間違った知識を広めてしまうリスクも指摘している。 BCGは若手コンサルタントたちに、生成AIのリスクを軽減する施策を検討させているのだが、それをAIの専門家が推奨する施策と比較した場合、大きく分けて3つの点で相違が見られたという。 第1に、技術の特性を深く理解した上での施策になっていなかった。例として挙げられているのが、「(生成AIに入力する)質問を標準化する」というものだ。 この方法では生成AIのハルシネーション(事実でないことを事実であるかのように回答してしまう現象)には十分に対処できないと論文は指摘する。この点について生成AIの専門家は、エラーリスクが許容できるユースケースを選んだり、生成AIの信頼性を独立してテストしたりすることを推奨している。 第2に、若手コンサルタントたちは、リスク軽減のためにシステム側ではなく人間側の作業内容を変えるという解決策に過度の期待を抱いていた。たとえば、「ユーザーに結果を検証する訓練をする」や「マネジャーが質問と回答の内容をレビューする」といった具合だ。 ところが、生成AIの専門家は、人間がこうした検証を行うのは困難であると指摘している。作業を効率化するために生成AIを活用しているのに、全社員が(そして彼らのマネジャーが)生成AIからの全出力を、本当にきちんとチェックしてくれるだろうか。 専門家たちは人間によるチェックを否定しないものの、RAG(質問が入力された際、それをすぐに生成AI側に投げるのではなく、質問に対する正しい情報が含まれたデータを取得して、そのデータも加えた上で生成AIに与えることで、回答の正確性を上げる手法)などの技術的な解決策も模索すべきだとしている。 ただ繰り返しになるが、生成AIに関連する技術が進化するスピードは目覚ましく、技術面まで考慮しろというのは酷かもしれない。これもある意味で、第1の「若手社員の技術的知識不足」に関係した問題なのだろう。 そして第3に、若手社員は「プロジェクトレベルでの介入」を過大評価する傾向が見られた。