コックピット内「権威勾配」の心理学:人は誰でも間違える
リーダーシップや指揮命令系統は組織を統率するために必須だが、それが強固になり過ぎるとコミュニケーションが効果的にできないような風土が生まれ、その結果、重大なエラーが起きてしまうことがある。航空業界や医療業界などでは、こうした強過ぎる権威に対する危機感が共有されている。
権威勾配とは
乗客や患者など、人の命を預かる仕事は多い。ちょっとしたミスが重大事故・重大事象につながりかねず、常に厳しい危機管理が求められる仕事でもある。
ミスやエラーの防止には多種多様な技術や考え方、取り組みがあるが、その中に「権威勾配(Authority Gradient)」の概念がある(※1)。
勾配というのは傾斜角のことだ。組織の中で権威勾配というのは権威の差ということになるが、この勾配、角度が急な場合、上司の権威が強く、上意下達で部下は上司の命じるままに動く。逆に勾配が緩やか、あるいは角度がない場合、時として上司の命令を部下が聞かず、組織の統率ができなくなる危険性がある。
つまり、権威勾配の傾斜角は、あまり急過ぎても、またフラットでも組織をうまく運営できず、重大な事故や事象を引き起こす原因になりかねない。
船舶や航空機では船長や機長が、医療現場では医師が最終的な判断や責任を負う。だが、ベテランの船長や機長、医師であっても間違いを起こす。人は誰でも間違えるからだ。
船長や機長、医師と航海士や副操縦士、看護師といった部下の関係に権威の急な勾配があると、部下が上司の間違いを指摘するといったことができにくい。
航空機事故でコックピット内の権威勾配が影響したケースとしては、1977年にスペイン領カナリア諸島のテネリフェ空港で起きたジャンボ機(B-747、KLM機、パンナム機)同士の衝突事故だ。
この事故の原因として、地上管制レーダーのない古くて狭い空港、濃霧で視界不良、KLM機長の予断と思い込み、管制塔の指令の誤解(英語とオランダ語)、乗務時間超過が迫るストレス、濡れた路面、取り回しのしにくい機体などが挙げられている。
調査報告で述べられている危機回避の最後のチャンスを逸した瞬間は、管制塔とパンナム機の交信を聞いていたKLM機の航空機関士(当時は3人体制)が機長に対し、滑走路上にパンナム機がいる可能性を指摘したところ否定され、重ねて警告するのをためらったこととされている(※2)。
KLM機の機長(50歳)は、総飛行時間1万1700時間(B-747は1545時間)のベテランパイロットで、KLMのトレーニング部長かつB-747のフライトインストラクター、無事故記録を持つ人物だった。
つまり、機長と航空機関士の間に、強い権威勾配があったのではないかというわけだ。
人は誰でも間違える
危機管理の用語にスイスチーズというものがある(※3)。フェイルセーフでは複数の安全手段を講じるが、穴が空いた複数のスイスチーズを一気通貫ですり抜けるように、不幸な偶然が重なってエラーや事故が起きてしまう。
テネリフェ空港の事故ではいろいろな要因が重なってしまったが、コックピット内の権威勾配が緩やかであれば、航空機関士は重ねて警告をし、機長も虚心坦懐にその言葉に耳を傾け、スイスチーズの最後の穴をすり抜けず、最悪の事態を避けられた可能性がある。
安全管理、危機管理の考え方は、主に第2次世界大戦後に航空業界から始まった。その後、原発プラント、宇宙産業、医療業界などに広がったが、その契機はスリーマイル島の原発事故やチャレンジャー号の事故、医療過誤といった重大事故や事象であり、経験を糧にどうやったらエラーや事故を防ぐことができるのか、各産業界では知恵を絞ってきた(※4)。
エラーや事故などの原因は、技術的要因、システム要因、人的要因(ヒューマンエラー)などがあるが、組織のリーダーと部下との間の心理的な権威勾配が問題になることも多い(※5)。認知バイアスや思い込みは、リーダーに限らず誰にでも起きる(※6)。
問題は、人は誰でも間違えることを大前提とし、職制や階級などに関係なく、どんな人の間違いを誰でも自由に指摘できる環境を作ることだ。
そのためには権威を持つ立場の人間が率先して胸襟を開いて自己開示し、どんなことでも言える雰囲気を作ること、また馴れ合いが目に余るような場合は逆に上下関係にある程度の距離を取ることも必要になるだろう。
いずれにせよ、組織の中で上下の立場という人間関係も繊細なもので簡単にはいかない。そのためにはシステムやプログラムなど、技術的なスイスチーズを用意し、権威勾配などのヒューマンエラーが起きても危機を回避できるようにしておかなければならないだろう。
※1:Kunihide Sasou, James Reason, "Team errors: definition and taxonomy" Reliability Engineering & System Safety, Vol.65, Issue1, 1-9, June, 1999
※2:AIR LINE PILOTS ASSOCIATION, "AIRCRAFT ACCIDENT REPORT, PAN AMERICAN WORLD AIRWAYS BOEING 747, N 737 PA, KLM ROYAL DUTCH AIRLINES BOEING 747, PH-BUF, TENERIFE, CANARY ISLANDS MARCH 27, 1977"
※3:James Reason, "Human error: models and management" the bmj, Vol.320, 768, 18, March, 2000
※4:L T. Kohn, et al., "To Err Is Human: Building a Safer Health System" Institute of Medicine Report, National Academy Press, 2000
※5-1:Jens-Uwe Schroder-Hinrichs, et al., "From Titanic to Costa Concordia - a century of lessons not learned" WMU Journal of Maritime Affairs, VOl.11, 151-167, 4, September, 2012
※5-2:Morgan J. Tear, et al., "Safety culture and power: Interactions between perceptions of safety culture, organisational hierarchy, and national culture" Safety Science, Vol.121, 550-561, January, 2020
※6:Itiel E. Dror, "Cognitive and Human Factors in Expert Decision Making: Six Fallacies and the Eight Sources of Bias" analytical chemistry, Vol.92, 7998-8004, 8, June, 2020