カスハラでメンタルが削られる顧客対応窓口に広がり始めた「感情AI」、感情労働のストレスをどこまで軽減できるか?
■ 生成AIは感情労働の敵か味方か 今回の研究では、実際のCSRにPro-Pilotを使ってもらい、無礼なクライアントと対話するシミュレーションを行った上で、このAIアシスタントがどこまで役立つかを評価してもらったそうだ。 その結果、Pro-Pilotを使うことでCSRが負の感情を抱え込まず、顧客に対して冷静でいられること、また作業に集中する助けとなることが確認されたという。 こうした精神的な支えがどこまで効果を発揮するかは、オペレーター個人によっても差があるだろう。上司や同僚、家族や友人などから労いの言葉をかけられても、響く場合もあれば逆効果になる場合もある。その意味でPro-Pilotが、感情労働による心身の疲労の即効薬になるというわけではない。 ただ、具体的な顧客とのやり取りに基づいて、そのやり取りが行われているまさにその瞬間に、「この怒りはあなたに向けられているのではない」という言葉をかけてくれるというのは、確かにCSRの心の負担を軽くしてくれる可能性がある。 また、昨今の状況からリモートワークの導入が促進されたことで、職場内で感情労働者のケアを行うのが難しくなってきている。しかも、効率化が求められる中では、個々の感情労働者の状況に応じたサポートを付けるのも難しい。 その中でカスタマイズされた対応を自動的に行ってくれるAIアシスタントは、企業にとって魅力的な選択肢となるはずだ。 では生成AIは、感情労働者にとって救いの光となるのだろうか。Pro-Pilot単体で見ればそうかもしれないが、残念ながら生成AI全体で捉えると、逆の可能性があることも明らかになっている。
■ 感情AIに潜む大きなリスク 生成AI技術が発達したことで、人間の感情を把握・分析し、それを再現したり、さらには操作したりすることまで可能な「感情AI」の高度化が進んでいる。カスタマーセンターに電話してきた顧客の感情を把握し、CSRの感情が害されないようにケアしてくれるPro-Pilotは、まさに感情AIの一種と言えるだろう。 しかし、感情AIは大きなリスクも抱える存在であることが明らかになってきている。 ミシガン大学の研究者らは昨年発表された論文の中で、感情AIは従業員の感情を推測し、監視することで、従業員のプライバシーを大きく侵害する可能性があると説明している。 また、感情の推測・監視は、Pro-Pilotとはまったく逆に、従業員に感情労働を強制するリスクもあると指摘している。職場の期待に応じた感情を表現することを強制され、自分の感情を押し殺して働かざるを得なくなるためだ。 そうなれば生成AIは、感情労働を軽減するのではなく、さまざまな職場に感情労働を広げていくものになるかもしれない。取引先に送るメールの内容が強制的にチェックされ、少しでも負の感情が認められた場合には書き直しを要求されるといった具合である。 もちろんそれには、パワハラの防止に役立つといったプラスの側面もあるが、どこで線引きするのか、どこまでの介入を許すのかというのは難しい問題だ。 もはや生身の人間同士のコミュニケーションにも、AIがさまざまな形で関与してくる時代になったということなのだろう。それがもたらすのはユートピアか、あるいはディストピアか、私たちのかじ取りが求められている。 【小林 啓倫】 経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。 システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。 Twitter: @akihito Facebook: http://www.facebook.com/akihito.kobayashi
小林 啓倫