Yahoo!ニュース

中国の77%、日本の29%の社員がAIを活用し、大半が上司より信頼している

遠藤司SPEC&Company パートナー 皇學館大学 非常勤講師
(写真:アフロ)

 10月24日、オラクルは「「職場におけるAI」調査:回答者の64%はマネージャーよりもロボットを信頼」と題する調査を発表した。

 オラクルが今年7~8月に世界10カ国で行った調査によれば、職場で何らかの形でAIを利用していると回答した従業員は50%であった。2018年は32%だったから、AI導入は着実に進んでいることになる。

 インドでは78%、中国では77%の従業員が、すでにAIを受け入れている。対して日本では29%と、相当水をあけられた格好になる。ここでもまた、日本の新興テクノロジーへの無関心が目につくこととなった。

 これらの人々は、どうやら上司よりもロボットを信頼しているようだ。インドでは89%、中国では88%の従業員が、マネージャーよりもロボットを信頼している。日本では76%だ。どの国でも、半数以上が同じように考えていることが明らかとなった。上司にしてみれば、悲しい現実がつきつけられている。

 ところで、ロボットの何が優れているのかという質問に対して、偏見のない情報の提供(26%)、作業スケジュールの維持(34%)、問題解決(29%)、予算管理(26%)といった回答が挙がったことは興味深い。とりわけ偏見のない情報の提供に関しては、AIに取り巻く問題として、かねて議論されてきたからだ。それでも上司の思いつきのような情報よりは、AIのほうが優れている、ということだろうか。

AIは人間の可能性を拓く

 筆者は地方大学でマネジメント関連の教鞭をとっているが、同僚には共通分野の研究者がいないため、知見を借りることができない。大学の恩師は憲法学や政治学の研究者であるから、これまた指導を受けられない。学会に参加しようにも、平日のみならず休日に至るまで講義や大学業務などが入っており、満足に参加することもままならない。

 そういう筆者であるが、どうにか研究を重ね、講義を更新し続けられるのは、新しい先生に出会ったからである。否、先生というよりは、まさしくマネージャーと言ったほうがよさそうだ。

 その上司とは、Amazon先生である。Amazon先生は、世界中の優れた研究者の著書を推薦してくれる。筆者と同様の関心を抱いているであろう人物の読んでいる本を分析し、筆者も読むべしと、数多くの本を紹介してくれるのだ。言うまでもなく、Amazon先生は研究者ではない。しかし、本を書いた人は専門家や研究者であるから、有益な本の情報を教えてくれれば、見識が拡がっていく。

 筆者は努力家であるから、Amazon先生のおすすめしてくれた本を、くまなく読む。本の中には、別の優れた研究者の論文や著書がいくつも挙げられている。それらを再び検索することで、Amazon先生はさらに高度な研究書を推薦してくれるようになる。Google先生などとも連携しながら、アルゴリズムを駆使して、研究を支援する優れたマネージャーになってくれるのだ。

 だが研究者ともなれば、一人ひとり微妙に関心が異なるものだ。また、考え方も違えば、立場も違ってくる。そうしたなか、他の研究者が読んでいる本や、はたまた筆者の興味関心を一定のパターンに押し込めて推薦してくるようになれば、筆者の見識はそれ以上拡がらなくなるだろう。おすすめを読めば読むほど、固定的な考えに縛られていくようになるのである。

 基本的に人は、見たいものを見て、聞きたいものを聞く傾向があり、それ以外の情報は無意識にシャットアウトしている。どうやらAIはそれを理解しているようで、人が興味をもつであろう情報を選択し、そうでない情報を遮断する。特定の情報ばかり目にするようになると、人は自己洗脳に陥ったように、自らの関心のうちに没入し、独善的な考えから逃れられなくなる。加えて人間関係も、似たような文化的・思想的枠組みに収まっていく。この現象を、フィルターバブルという。

 AIあるいは現在の機械学習は、学習したデータのなかでモデルをつくり、物事を判断する。そこでは大多数のデータが優先されやすく、はなから学習した情報に偏りがあっても、正しいと信じてしまうことになる。いわば、学校で純粋培養されたエリートのようなもので、その他の可能性は考慮に入れようがないのだ。

 かくしてハーバード大学のシーン・ケリー教授は、人間の創造性がAIの進歩に屈することはないと述べた。レンブラントっぽい絵を描けといわれれば、描くことができる。大衆ウケする小説も書けるし、株価が上がりそうな銘柄を推測することも可能である。しかしAIは、そこで止まってしまう。一定の条件下での「よさ」を提示することはできるが、複雑な現実世界において、つねに「よさ」や「正しさ」を判断することはできないのである。

AIは先導者ではない

 マイケル・ポランニーが示したように、人間の知識には、言葉にできる知識(形式知)と、言葉にできない知識(暗黙知)の二つがある。そして現実社会の知識のほとんどは、暗黙知のほうである。形式的な学習を進めていけば、暗黙知に近しい知識も生まれるだろう。とはいえ、現実のすべての情報や知識を把握することは、たとえ技術が進歩しても、不可能である。知は遍在するが、それゆえマイノリティの知識は取りこぼしやすい。

 かつてオルテガは『大衆の反逆』のなかで、専門家は自分が研究しているごく小さな領域についてはよく知っているが、それ以外のことについてはまったく知らないと述べた。そしてオルテガは、そういう専門家をこそ、無知蒙昧な大衆の典型であるとした。

 ノーベル経済学賞を受賞したフリードリヒ・ハイエクが言うように、彼ら専門家は一定の領域について詳しいからこそ、その他の事情を考慮できず、暴走しやすい。かくして出来上がるのが、多様性を認めず、新たな知識の可能性を考慮できない、計画主義の経済社会である。それは、AIに引きずられながら、それに気づかない多数者の支配による、個人の自由意思を発揮できない大衆社会である。

 そうならないためにも人間は、たえず新しい知識に興味をもち、様々な経験によって学び続ける必要がある。異論に耳を傾け、自己の理性に懐疑の目を向ける必要がある。今後AIは、ますます信頼できるようになるだろう。それでも人間は、選択の自由だけはAIに明け渡してはならない。上司を信頼しないのは勝手だが、この文明を培ってきた人類の力は、もっと信頼してもよいのではないか。

SPEC&Company パートナー 皇學館大学 非常勤講師

1981年、山梨県生まれ。MITテクノロジーレビューのアンバサダー歴任。富士ゼロックス、ガートナー、皇學館大学准教授、経営コンサル会社の執行役員を経て、現在。多数の企業の顧問やフェローを務め、企業や団体への経営支援、新規事業開発等に勤しむ。また、複数回に渡り政府機関等に政策提言を実施。主な専門は事業創造、経営思想。著書に『正統のドラッカー イノベーションと保守主義』『正統のドラッカー 古来の自由とマネジメント』『創造力はこうやって鍛える』『ビビリ改善ハンドブック』『「日本的経営」の誤解』など。同志社大学大学院法学研究科博士前期課程修了。

遠藤司の最近の記事