失敗の科学 失敗から学習する組織、学習できない組織

官僚の無謬性を信奉する某国の官僚は必読ではないだろうか。

失敗の科学 失敗から学習する組織、学習できない組織

失敗の科学 失敗から学習する組織、学習できない組織

 

yamanatan.hatenablog.com

  • 失敗から学ぶことは最も「費用対効果」がよい・・・失敗は、予想を超えて起こる。世界は複雑で、すべてを理解することは不可能に等しい。だから失敗は、「道しるべ」となり我々の意識や行動や戦略をどう更新していけばいいのかを教えてくれる。なにか失敗したときに、「この失敗を調査するために時間を費やす価値はあるだろうか?」と疑問を持つのは間違いだ。時間を費やさなかったせいで失うものは大きい。失敗を見過ごせば、学習も更新もできないのだから。
  • 医療過誤のコストは、控えめに見積もってもアメリカだけで170億ドル(1ドル100円換算で1兆7000億円)にのぼる。2015年3月現在で、英・国民保健サービス訴訟局は、過失責任の賠償費用として261億ポンド(約3兆2800億円)の予算を計上した。失敗から学ぶことは決して資金の無駄使いではない。むしろ、最も効率的な節約手段だ。資金だけでなく、人命も無駄にせずに済む。
  • 科学は常に「仮説」である:科学も、失敗から学ぶことが重視される分野のひとつだ。カール・ポパーも、科学は自らの失敗に慎重に応えることにより発展を遂げる、と指摘している。仮説は、実験や観察によって反証される可能性がある。その点において、新たな科学理論は常に脆弱だと言えるだろう。しかしポパーはこれを科学の弱点ではなく強みだととらえた。科学の歴史は、人類のあらゆる思想の歴史と同様、失敗・・・の歴史であるとポパーは言う。「しかし科学は、失敗が徹底的に論じられ、さらにそのほとんどは修正されてしかるべきときに修正される、数少ないおそらくはたったひとつ学問だと言えるのであり、その賢明な行動によって進歩がもたらされるのであるのである
  • アリストテレスは「重い物体ほど早く落下する」と主張し、人々はほぼ盲目的に信じていた。しかし、ガリレオは違った。彼はその真偽を見極めるために、「ピサの斜塔に登り、重さの違う2つの球を落とす」というかの有名な検証を実施した。その結果、球はどちらも同詩に着地。重さによって落下する速度に違いはなかった。アリストテレスの説は覆されたのである。ガリレオポパーの言う仮説の反証可能性」を実証したのだ。
  • アリストテレスの失敗は公のものとなった。信者にとっては大きな打撃となり、その多くが実験に対して猛然と異議を唱えた。しかし科学にとっては深い意義のある勝利だ。実験の結果から新たな仮説が導き出され、再び反証に晒されれば、そこからまた進歩が生まれる。
  • 一方、疑似科学はどうだろう、? たとえば占星学の予測は、どうしようもなく曖昧だ。私は本書の執筆中, Horoscope.comを覗いて天秤座の運勢をチェックしてみた。「家庭か職場で大きな変化が起こる気配』と書かれていた。これは一見、検証可能な予測に思えるかもしれない。しかし天秤座であろうとなかろうと、誰に起こることにも当てはまってしまう。変化の「気配」くらい、どこにでも見つけることができるだろう。この曖昧さは星占いの強みだ。「間違い」は決してない。しかし失敗を一度も経験しない代償は大きい。学習できないからだ。占星学はこの200年余り有意義な変化を遂げていない。
  • 19世紀まで広く信じられていた、「天地創造は紀元前4004年」という説はどうだろう?この説は化石の発見と、その後の放射性炭素年代測定法によって反証された.またその新たなデータによって、地球の誕生は、紀元前4004年よりはるかに前だという動かしがたい事実が明らかになった。
  • しかしイギリスの自然学者フィリップ・ヘンリー・ゴスは、『オムファロス』という著書を出し、創造論を擁護した。彼の主張はこうだ。「聖書の記述から逆算した紀元前4004年説に間違いはないが、神は地球を古びた状態に見せるため、意図的に化石を作った」。ゴスは創造論を擁護しつつ、後付け的な解釈で真実とも摺り合わせようとしたのである。しかしそのために、彼は自分の仮説を反証不可能にして、失敗の余地を失くしてしまった。どんなデータも、どんな発見も、ゴスの仮説を覆すことはできない。天地創造が紀元前4004年より前だと示すあらゆる物証は、神が世界にいたずらをしたというゴスの仮説を裏付ける材料となるからだ。
  • 何にでもあてはまるものは科学ではない:オーストリアの精神医学者、アルフレッド・アドラー心理療法についても同じことが言える。アドラーの理論の中心となったのは「優越コンプレックス」だ。彼は「あらゆる人間の行動は、自分を向上したいという欲求(優越性の追求、または理想の追求)から生まれる」と主張した。1919年、カール・ポパーアドラーに会い、アドラー理論では説明がつかない子どもの患者の事例について話した。ここで重要なのはその詳細ではなく、アドラーの反応だ。そのときのことを、ポパーはこう書いている。
  • 彼(アドラー)はその患者を見たこともないのに、持論によってなんなく分析した。いくぶんショックを受けた私は、どうしてそれほど確信をもって説明できるのかと尋ねた。すると彼は「こういう例はもう1000回も経験しているからね」と答えた。私はこう言わずにいられなかった。「ではこの事例で、あなたの経験は1001回になったわけですね」
  • ポパーが言いたかったのはこういうことだ。アドラーの理論は何にでも当てはまる。たとえば、川で溺れる子どもを救った男がいるとしよう。アドラー的に考えれば、その男は「自分の命を危険に晒して、子どもを助ける勇気があることを証明した」となる。しかし同じ男が子どもを助けるのを拒んでいたとしても、「社会から非難を受ける危険を冒して、子どもを助けない勇気があることを証明した」となる。アドラーの理論でいけば、どちらにしても優越コンプレックスを克服したことになってしまう。何がどうなっても、自分の理論の裏付けとなるのである。
  • 人間の行動でこの理論に当てはまらないものを、私は思いつかない。だからこそーーーあらゆるものが裏付けの材料になるからこそーーーアドラー支持者の目には強力に説得力のある理論だと映った。一見すると強みに見えたものは、実は弱点でしかなかったのだと私は気づいた。
  • クローズド・ループ現象のほとんどは、失敗を認めなかったり、言い逃れをしたりすることが原因で起こる。疑似科学の世界では、問題はもっと構造的だ。つまり、故意にしろ偶然にしろ、失敗することが不可能な仕組みになっている。だからこそ理論は完璧に見え、信奉者は虜になる。しかし、あらゆるものが当てはまるということは、何からも学べないことに等しい。
  • 立証と反証には微妙な違いがある。科学の世界では立証することが重要だ。物事を観察して、理論を構築し、裏付けとなる証拠をできる限り集めて立証する。しかしここまでにも見てきたように、科学には反証もまた欠かせない。反証となりうるデータも検討しない限り、知識は進歩しない。
  • いわゆる「1万時間ルール」(才能が開花するまでには1万時間の訓練が必要という法則)だ。もちろん誰でも世界チャンピオンになれるわけではないが、たいていの人は努力によって熟達できる。
  • しかし、まったく異なる研究結果も出ている。職種によっては、訓練や経験が何の影響ももたらさないことが多いという。何ヵ月、ときには何年かけても、まったく向上しないのだ。たとえば心理療法士を対象にしたある調査では、免許を持つ「プロ」と研修生との間に治療成果の差は見られなかった。同様の研究結果は、大学入学審査員(入学希望者の勧誘·選考などを行う専門職)、企業の人事担当者、臨床心理士についても出ている。ある職種では経験や訓練に大きな意味があり、こんなことが起こるのか?
  • ゴルフを例に考えてみよう。練習場で的に向かって打つときは、一回一回集中し、的の中心に近づくように少しずつ角度やストロークを調整していく。スポーツの練習は、基本的にこうした試行錯誤の連続だ。しかしまったく同じ練習を暗闇の中でやっていたとしたらどうだろう? 10年がんばろうと100年続けようと、上達することはない。ボールがどこへ飛んでいったかわからないままでは、改善のしようがないからだ。何度打ってもボールは暗闇の中へ消えていく。改善するためのデータがなければ、次はもう少し右に、今度はもう少し強くといった試行錯誤は不可能だ。
  • 逆にチェスの選手はどうだろう?下手な一手を指せば、あっという間に対戦相手に攻め込まれる。小児科看護師も、もし患者の症状を読み誤って対処すれば、その体調に結果が出る(のちの検査でも、間違いが明らかになる)。チェス選手も看護師も、常に自分の間違いがチェックされ,その結果が出る。だからいやでも毎回考え直し、改善し、適応していかなければならない。これは「集中的訓練(deliberate practice)」とも呼ばれる。
  • 一方、心理療法士の状況はまったく違う。彼らの仕事は患者の精神機能を改善することだ。しかし治療がうまくいっているかどうかは、何を基準に判断しているのか?フィードバックはどこにあるのか? 実は心理療法士のほとんどは、治療に対する患者の反応を、客観的なデータではなく、クリニックでの観察によって判断している。しかしその信憑性は、はなはだ低い。患者が心理療法士に気を使って、状態がよくなっていると誇張する傾向があることは、心理療法の問題としてよく知られている。さらに根深い問題もある。心理療法士は、治療が成功した患者の精神機能がその後も良好かどうか、あるいは結局失敗に終わったかどうか、まったく知らない。つまり、治療の長期的な影響に関するフィードバックがまったくないのだ。だから心理療法士の多くは、時間をかけて経験を積んでも、臨床判断の能力が向上しない。暗闇でゴルフの練習を続けているようなものだからだ。
  • 解剖はこれまでに多くの進歩をもたらした。結核アルツハイマー症候群など、さまざまな疾病の理解に役立ってきた。米軍では、2001年以降にイラクアフガニスタンで戦死した兵士の病理解剖を行い、銃弾・爆弾・散弾による損傷について重要なデータを得た。しかし2001年以前は、軍兵士の解剖はほとんど行われていなかった。つまり欠陥や教訓は明らかになっていなかった。兵士たちは脆弱な装備のまま、死の危険に晒されていたのである。
  • 軍から離れて一般市民を見てみよう。近年の調査では、医療事故かどうかに関係なく、もし病院から解剖を求められれば、約80 %の遺族が了承するというデータが出ている。愛する人が亡くなった原因を知ることができるからだろう。しかし、それでも解剖は滅多に行われていない。遺族に受け入れる気持ちがあっても、病院側が進んで行っていないのだ。アメリカ国内での解剖件数は、全死亡者の10 %に満たず、まったく解剖を行わない病院も多い。1995年以降は、全米保健
    統計センターによる解剖数の統計も実施されていない。結果として貴重な情報は減り、今後の患者の命を救うための学習機会は大きく失われている。

 人はウソを隠すのではなく信じ込む

  • 冤罪はいろんな意味で航空機事故に似ている。もし冤罪に至った仮定を完全に再現できれば(もちろん非常に困難な作業ではあるが)、司法制度の重大な欠陥が明らかになる。警察の捜査手順、裁判における証拠の扱い方、陪審員団の評議方法、裁判官の采配など、いったいどこに間違いがあったのかを徹底的に検証する機会になる。その過程で失敗から学び、制度を改善できれば、同じ間違いを繰り返さずに済む。しかしここまで何度も見てきたように、人は自分の過ちを認めるのが嫌いだ。たとえば警察はどんな態度をとるだろう? 必死の捜査の末、やっと刑務所送りにした「残忍な殺人犯」が、無実の人間だったとわかったら? 検察はどうするだろう? 懸命に立証責任を果たした結果、無実の人間の一生を台無しにしたとしたら? 裁判官はどうだろう? 自分が統括する制度が、実はまともに機能していなかったという事実を突き付けられたら?
  • カルト信者が予言を外した教祖にとった意外な行動・・・1954年秋、当時ミネソタ大学の研究者だったフェスティンガーは、地元紙の奇妙な見出しに目をとめた。「シカゴに告ぐ、惑星クラリオンからの予言ー大洪水から避難せよ」。記事の内容は、霊能者を名乗る主婦マリオン・キーチが、ある惑星の「神のような存在」から、次のようなメッセージを受け取ったというものだ。「1954年12月21日の夜明け前、大洪水が発生して世界が終末を迎える」
  • 野心旺盛な科学者フェスティンガーは、またとないチャンスが訪れたと考えた。このカルト集団に信者の振りをして潜入すれば、世界の終末が訪れるまで彼らの行動を観察できる。特に興味があったのは、予言が外れたあと信者がどんな行動をとるかだ。そんなことは考えるまでもない、と思うのが普通だろう。信者たちは「キーチは詐欺師だった。神のような存在とコンタクトなどとれていなかったのだ」と認め、元の生活に戻るしかない。それ以外の結論などあり得ない。予言が見事に外れるという、これ以上ないほど明白な失敗を目にするのだから。しかしフェスティンガーの予想は違った。信者たちはキーチを否定するどころか、以前にも増して信奉するようになると考えたのだ。
  • 信者たちは、最初のうちはときどき庭を見て宇宙船が降りてこないか確認していたが、真夜中をすっかり過ぎると、一様にどんよりとした顔つきになった。
    しかしやがて、何事もなかったかのようにそれまで通りの行動を始めた。つまり、フェスティンガーが予想した通り、大事な予言を外した教祖に幻滅することはなかったのである。そればかりか、以前より熱心な信者になる者も出た。どうしてこんなことが起こったのだろう?世界が洪水で沈み、宇宙船が救いにやって来ると予言したが、何一つ起こらなかった。しかし信者たちは、自分たちの信念を変えることはせず、事実の「解釈」を変えてしまった
  • このエピソードは、カルト集団に限らず、我々が誰でも持っている一面を示唆している。信者たちの行動はもちろん極端だが、フェスティンガーはそれを分析することで、誰もが陥りがちな心理的カニズムを明らかにした。多くの場合、人は自分の信念と相反する事実を突き付けられると、自分の過ちを認めるよりも、事実の解釈を変えてしまう。次から次へと都合のいい言い訳をして、自分を正当化してしまうのだ。ときには事実を完全に無視してしまうことすらある。なぜ、こんなことが起こるのか?・・・カギとなるのは「認知的不協和」だ。これはフェスティンガーが提唱した概念で、自分の信念と事実とが矛盾している状態、あるいはその矛盾によって生じる不快感やストレス状態を指す。人はたいてい、自分は頭が良くて筋の通った人間だと思っている。自分の判断は正しくて、簡単にだまされたりしないと信じている。だからこそ、その信念に反する事実が出てきたときに、自尊心が脅され、おかしなことになってしまう。問題が深刻な場合はとくにそうだ。矛盾が大きすぎて心の中で収拾がつかず、苦痛を感じる。そんな状態に陥ったときの解決策はふたつだ。1つ目は、自分の信念が間違っていたと認める方法。しかしこれが難しい。理由は簡単、怖いのだ。自分は思っていたほど有能ではなかったと認めることが。そこで出てくるのが2つ目の解決策、否定だ。事実をあるがままに受け入れず、自分に都合のいい解釈を付ける。あるいは事実を完全に無視したり、忘れたりしてしまう。そうすれば、信念を貫き通せる。ほら私は正しかった!だまされてなんかいない!
  • 「完全無欠」を手放さない人・・・刑事司法制度において、誤判はまるで腫れ物扱いだ。・・・1932年イエール・ロー・スクールのエドウィン・オーチャード教授は、名著「Convicting the Innocent and State Indemnity for Errors of Criminal Justice (冤罪、及び刑事裁判の誤判に対する国家賠償責任) 』で数々の冤罪事件を取り上げた。その大半は明白な失敗だ。中でも8例は、被害者がまだ「行方不明」あるいは「死亡したと推定される時点で、被告に殺人罪の有罪判決が下され、のちに被害者が元気に生きていたことが確認されている。
  • このような失敗の数々は、どこで間違いが起こったのかを特定し、司法制度の欠陥を精査するいい機会になる、と普通なら思う。しかし、警察・検察・裁判官の姿勢はまったく違う。彼らは自分たちと異なる意見はまるで受け付けない。「司法制度は完全無欠であり、それに異議を唱えることこそ思い上がりだ」と考えている。マサチューセッツ州ウースター郡の地方検事は実際にこう言った、「無実の人間が有罪判決を受けることなどあり得ない。心配はご無用。(中略)そんなことは物理的に不可能だ」これ以上に「クローズド・ループ」的な考え方があるだろうか?
  • 「歷史的に見ても、この国の法制度は信じがたいほど独善的です」ニューヨーク州のある弁護士が私にそう話してくれたことがある。「容疑者が有罪にさえなれば、法制度がうまく機能している証拠だとずっと考えてきたんですから。システムを真剣に検証しようという動きは、過去にはほとんどありませんでした。冤罪事件が数多く起こっているなんて、非現実的な話でしかなかったんです」ここで特筆すべきは、19世紀初頭にイングランドウェールズ刑事控訴院の設立案が出た際、真っ向から反対したのが裁判官たちだったことだろう。控訴院設立の目的は誤りを正す機会を設けるためだった。つまり「失敗はある」と制度側が事実上認めようとしたのだ。しかし「誤りなどない」というまったく逆の前提に立っていた裁判官たちは大反対だった
  • 「努力」が判断を誤らせる・・・大多数の検察官は、自分たちがやっていることは単なる仕事ではなく使命だと捉えている。彼らは自分たちの能力に強い自負がある。検察官になるためには、司法試験を受け、その後何年も実務経験を積まなければならない。いわば厳しい「加入儀式」だ。・・・しかし、そんな努力の末に刑務所に送り込んだのは無実の人間だった、と後からわかったらどうだろう?何の罪も犯していない人の一生を台無しにした上に、被害者の遺族の心をあらためて傷つけることになったとしたら? きっと胃がねじれるような思いがするだろう。これ以上に脅威的な認知的不協和は想像することすら難しい。社会心理学者リチャード・オフシェは言う。「(無実の人を刑務所送りにすることは)プロが犯す失敗の中で最悪の部類に入る。外科医が間違って健康な方の腕を切断するようなものだ」
  • アメリカでは、空から飛行機が落ちてくれば(中略)厳重な調査が行われる。どんな間違いが起こったのか? システムの故障か? 操縦士によるミスか? 職務違反はなかったか?防止のためにできることは何か? (中略)しかし不当な有罪判決が新たな証拠によって覆されても、国はほぼ何の記録もとどめない。判事がたった1行命令文を書けばそれで終わりだ。しかもそれは判決ではなく、裁判手続きなどに関して、判事が個々に示した判断にすぎない。つまり、どんな間違いが起こったのかを分析しようとはしないのである。判事だけではなく、ほかの誰も。
  • 意図的に人を欺く行為には、少なくともひとつマシな点がある。欺いている側がそれを自覚しているのだ。一方、無意識の欺瞞は自分自身を欺き、かつ自覚されることが少ない。実は、ミスの隠蔽を一番うまくやり遂げるのは、意図的に隠そうとする人たちではなく、「自分には隠すことなんて何もない」と無意識に信じている人たちのほうだ。

あえて間違えろ

  • 認知的不協和には、「確証バイアス」という心理的傾向も関連している。ひとつわかりやすい例を紹介しよう。たとえば「2、4、6」という3つの数字を見たら、どんなルールで並んでいると思うだろう?「2、4、6と同じルールで並んでいると思う3つの数字を好きなだけ答えて、解を見つけ出してください」と言われたら、あなたはどうするだろうか?
  • たいていの人は、即座に仮説を立てることができるはずだ。たとえば「偶数が昇順に並んでいる」。もしくは単純に「偶数が並んでいる」。「3番目の数字は、前の2つの数字の和」とも考えられるだろう。
  • 重要なのは、その仮説の正誤をいかに証明するかだ。通常はまず裏付けをとる。たとえば「偶数が昇順に並んでいる」という仮説なら「10、12、14」と答えてみればいい。それがルールに当てはまっていると言われたら、今度は「100、102、104」で確認する。これを3回繰り返せば、ほとんどの人は仮説が正しいという確信を持つはずだ。
  • しかし、実はそれでもまだ正解かはわからない。もし本当のルールが単に「昇順に並んだ数字」だったらどうだろう? 同じ確認をいくら繰り返したところで、正解かどうかはわからない。しかし、もし戦略を変えて、自分の仮説が「間違っているかどうか」を確認すれば、ずっと短時間で正解を導き出せる。たとえば「6、4、11」と仮説に合わない数列を答えて、それがルールに当てはまっているようなら、仮説は間違いだったとわかる。そのあと、たとえば「5、2、1」で確認して間違えれば、さらに答えに近づける。
  • ペンシルベニア大学ウォートン・スクールのマック・イノベーション・マネジメント研究所主任研究員、ポール・シューメーカーはこう言う。進んで失敗する意志がない限り、このルールを見つけ出す可能性はまずない。必要なのは、自分の仮説に反する数列で検証することだ。しかしほとんどの人は間違った仮説から抜け出せない。実際、この実験に参加した大学生は、好きなだけ数列を答えてもいいと言われていたが、実際に正解のルールを見つけ出した学生は全体の10 %に満たなかった。間違った仮説から抜け出す唯一の方法は、失敗をすることだ。ただ、こんなものは失敗でも何でもなく、日常茶飯事とすら言える。失敗をすることは、正解を導き出すのに一番手っ取り早い方法というばかりでなく、今回のように唯一の方法であることも珍しくない。
  • この例は、不気味なほどに中世の医学界を思い起こさせる。当時の医師は、患者にどんな結果が出ようとも、瀉血療法を肯定する材料ととらえた。まさに、確証バイアスそのものだ。バイアスの罠から抜け出すためには、科学的マインドセットが欠かせない。肝心なのは、自分の仮説に溺れず、健全な反証を行うことだ。我々はつい、自分が「わかっている(と思う)こと」の検証ばかりに時間をかけてしまう。しかし本当は、「まだわかっていないこと」を見出す作業のほうが重要だ。
  • 哲学者カール・ポパーもこう言った。「批判的なものの見方を忘れると、自分が見つけたいものしか見つからない。自分がほしいものだけを探し、それを見つけて確証だととらえ、持論を脅かすものからは目をそむける。このやり方なら、誤った仮説にも(中略)都合のいい証拠をなんなく集めることができる」

専門家の「大外し」

  • 2010年11月、著名な経済学者、識者、ビジネスリーダーらが、当時の連邦準備制度理事会(FRB)議長ベン・バーナンキに宛てて、連名で公開書簡を送った。ちょうどFRBが量的金融緩和政策の第2弾を実施すると発表したばかりで、第1弾に引き続き新たに刷ったドルで大量の国債を買い入れ、アメリカ市場に6000億ドルの追加資金供給を行う予定だった。公開書簡を送ったメンバーはこの政策に対し、懸念を表明した。というよりもむしろ、大惨事になると予測した。『ウォールストリート・ジャーナル』に掲載されたこの公開書簡で、彼らは、今回の政策は「現状では必要であるとも賢明であるとも思わない」「FRBが目標とする雇用の拡大が達成できるとは考えられない」と異議を唱え、「再検討した上で中止」すべきだと結論付けた。
  • もちろん、予測を間違うこと自体は何の問題もない。世の中は複雑で、不確実な要素が山ほどある。経済においてはとくにそうだろう。むしろ、自分たちの予測を世間に公開したのは勇気ある行動とすら言える。結果的に予測は外れたが、だからこそ彼らは理論や仮説を改善する最高の機会に恵まれた。失敗の意義はそこにある。では、予測が外れたことが明らかになったとき、彼らは実際にどんな反応をしただろうか?2014年10月、金融情報サービス会社のブルームバーグは、公開書簡を送ったメンバーに取材を行った。取材に応じたのは9名だった。しかしその9名は、なぜ予測が外れたのか、そこから何を学んだのかについては話さなかった。なぜなら、彼らは予測が外れたとも、失敗したとも、まったく思っていなかったからだ。それどころか、彼らの多くは、予測が「大当たりした」と思っていた
  • 「まだ現実化していないだけで、間もなくそうなる」という答えも多かった。元米議会予算局長のダグラス・ホルツ=イーキンも次のように言っている。「コアインフレは上昇する。2%を超えるだろう。いつなのかはわからないが、そうなるはずだ」最後のコメントはある意味正しい。インフレ率は今後上昇するだろう。急上昇になるかもしれない。なにしろ今が歴史的な低率なのだから。そういえばこれに似た話がある。ロンドンのサッカークラブ、ブレントフォードFCのあるファンが、2012~2013年のシーズン開始当初に「チームはFAカップで優勝する」と予測した。しかし結果は敗退。すると彼はこう言った。「FAカップで優勝するとは言ったが、いつとは言っていない」

表が出ても勝ち、裏が出ても勝ち

  • 公開書簡の一件もやはり認知的不協和がもたらした現象だ。認知的不協和は医師、検察官、カル卜集団のメンバー、世界的に著名なビジネスリーダー、歴史学者、経済学者、そのほか誰にでも起こり得る。事実をありのままに受け入れることは難しい。大きな決断であれ、小さな判断であれ、当人の自尊心を脅かすものなら何でも認知的不協和の引き金になる。いや、むしろ問題の規模が大きければ大きいほど、自尊心への脅威も大きくなっていく。だから手術中の事故は「よくあること」と処理され、DNA鑑定の結果は「未起訴の射精者」を生み、教祖の予言が外れると「自分たちが信じたから、神様が世界を救ってくれた」と感激する。
  • 経済学者を対象に行ったある非公式の調査では、キャリアの途中で学派を変更した者、あるいは自身の信条を大きく変更した者は、全体の10 %に満たなかった。これは危険な兆候だ。データをあるがままに受け取らず、自分の主義に都合よく解釈している経済専門家が少なからずいるということになるのだから。この数字は、世界有数の経済学者の中にもせっかくの知力を無理な自己正当化のために使っている人たちがいることを示唆している。認知的不協和の最も逆説的な点がここにある。明晰な頭脳を誇る高名な学者ほど、失敗によって失うものが大きい。だから世界的に影響力のある人々(本来なら、社会に新たな学びを提供するべき人々)が、必死になって自己正当化に走ってしまう。保身への強い衝動に駆られ、潤沢な資金を自由に使って、自分の信念と事実とのギャップを埋めるのだ。
    失敗から学ぶことなく、事実のほうをねじ曲げて。

「自尊心」が学びを妨げる

  • この「保身の罠」を鮮やかに描き出すことに成功した有名な実颐がある。ペンシルベニア大学の心理学者フィリップ・テットロックは1985年、各界の専門家284人を集め、特定の出来事がそう遠くない未来に起こる可能性を予測させた。たとえば「ゴルバチョフ大統領はクーデターにより失脚するか?」「南アフリカアパルトヘイト政策は非暴力によって結末を迎えるか?」など、しかるべく定義された出来事について、彼は何千にものぼる予測を集めた。なお、この実験に参加した専門家は各界の第一人者ばかりで、半数以上が博士号保持者である。
  • 数年後、彼は集めた予測と実際に起こった出来事を比較した。すると、専門家の予測が的中した確率は、比較対照として学生が行った予測よりは高かったものの、大差はなかった。これについては、特に驚くには値しない。世の中は複雑だ。物事に通じている専門家でも、数々の流動的な要素を踏まえて予測を的中させるのは難しい。・・・しかしこの実験で最も驚くべき発見は、テレビ番組に多数出演し、本を出せばサイン会を開くような有名な専門家の予測が、一番外れていたことだ。テットロックは言う。「皮肉なことに有名なら有名なほど、その予測は不正確になる傾向があった」
  • いったいなぜそうなるのか?カギは認知的不協和にある。自分の発言が世間に広まりやすい有名な専門家ほど、生活も自尊心もその予測にかかっている。おそらく、それまでは失敗しても自己正当化ばかりに躍起になって何も学べずにいたのだろう。
  • 大企業のトップなら、きっと冷静で分析能力の高い、先見の明がある人のはずだ。むしろ,そういう人だからこそトップに立てたはずだ。きっと、立場が高くなっても認知的不協和の影響は大きくならないに違いない。しかし実際は逆だ。
    ダートマス大学経営学教授、シドニーフィンケルシュタインは、名著『経営者が、なぜ失敗するのか?』で、致命的な失敗を犯した50社強の企業を調査した。すると組織の上層部に行けば行くほど、失敗を認めなくなることが明らかになった。
  • 皮肉なことに、幹部クラスに上がるほど、自身の完璧主義を詭弁で補おうとする傾向が強くなる。その中でも、通常一番ひどいのがCEOだ。たとえば我々が調査したある組織のCEOは、45分間の聞き取りを通してずっと、会社が被った災難がいかに自分以外の人間によりもたらされたかを並べ立てた。矛先を向けられたのは顧客、監査役、政府、さらに身内である自社の重役たち。しかし自身の過失については一切言及がなかった。
  • 自分の判断は賢明だったとひたすら信じ、それに反する事実を突き付けられると自己弁護に走る。原因は、もはや言うまでもない。認知的不協和の影響で目の前が見えず、最も失敗から学ぶことができていないのは、最も失うものが多いトップの人間なのだ。

毛沢東による「人類史上最大級」の飢餓

  • ルイセンコの農法を採用した共産政権下の中国では、さらに悲惨な結果が生ほれてしまう。ルイセンコは、作物の生産量を増やす策として極端な密植(高密度の田植え)を提唱していた。「同
    種の植物は互いの成長を阻害しない」という持論に基づく栽培方法だ。これは同じ階級の労働者同士が団結することよって共産主義社会を実現する」という、マルクス毛沢東の哲学にピタリと沿う理論だった。同じ(階級の)植物同士をまとめて植えれば、争うことなく順調に育つというわけだ。毛沢東は農業や工業の大増産を目指す「大躍進政策」の一端として、ルイセンコの「学説」に基づく農業開発を推し進めた。そしてソ連と同様に、西側の影響を受けた科学者や遺伝学者を猛然と迫害した。しかし、密植農法は検証されていなかった。失敗も経験しないままに、政治的な思惑によって各地で採用されてしまったのだ。もともと中国南部では、2.5エーカー(1万平方メートル強)の土地に150万個の種を蒔くのが標準だった」と『餓鬼(ハングリー·ゴースト)ー秘密にされた毛沢東中国の飢饉」の著者ジャスパー・ベッカーは言う。「しかし1958年には、同じ2 . 5エーカーに650万個もの種を蒔くことが義務付けられた」一緒に植えられた植物は肥料や土の栄養を奪い合う、という事実が発覚したときにはもう遅すぎた。苗は枯れ、土地は痩せ,中国史上最悪の飢饉へと発展した。現在でもその正確な規模は明らかになっていないが、歴史学者の推定によれば、中国史上のみならず人類史上においても最大級のこの飢饉によって、2000万人から4300万人が死亡したと言われている。
  • ルイセンコの1件は、科学史上最もスキャンダラスな出来事のひとつと言えるだろう。これまで数多くの本(ルイセンコとソ連科学の悲劇など)や論文が書かれており、知らない研究者はまずいない。この一件は、仮説から失敗するチャンスを奪う危険性について、厳しい警告を発している。
  • しかし現代でも、ここまでの大事件ではないにしろ、同じような傾向が見られる。仮説や信念が失敗から守られているのだ。共産主義国家によってではなく、我々自身の手によって。認知的不協和は足跡を残さない。自分にとって不都合な真実をどの時点でありのままに受け入れられなくなったのか、どの時点で正当化が始まったのか、辿る術はない。決して誰かに無理強いされるわけではなく、すべては心の中で起こる。まさに、自分で自分を欺くプロセスだ。その欺瞞は
    ときに悲劇的な結果をもたらす。・・・冤罪事件の数々がその実例だ。DNA鑑定によって無実を証明したケースは、どれも警察や検察にとって受け入れがたいものだった。刑事司法制度におけるこうした悲劇的な「失敗」を深く探れば、今後いかに制度を改革し、同じような過ちを防いでいけばいいのか、その方法が見えてくるはずだ。

「単純化の罠」から脱出せよ

  • テクノロジーの進歩の裏には、論理的知識と実践的知識の両方の存在があって、それぞれが複雑に交差し合いながら前進を支えている。ところが我々は、反復作業が多くて面倒なボトムアップ式の前進をついおろそかにしがちだ。トップダウン式で考えたほうが楽なのだから仕方ない。
  • 実は「正しいかどうか試してみる」を実行に移すには大きな障壁がある。実は我々は知らないうちに、世の中を過度に単純化していることが多い。ついつい「どうせ答えはもうわかっているんだから、わざわざ試す必要もないだろう」と考えてしまうのだ。
  • 我々は知らず知らずのうちに、目に見えるものを特定のパターンに当てはめて考え、そこに後からもっともらしい解釈を付けて満足してしまう。おかげで同じひとつの出来事に対して完全に逆の説明をしていても、自分ではその矛盾に気づきさえしない。
  • 完璧主義の罠に陥る要因はふたつの誤解にある。1つ目は、ベッドルームでひたすら考え抜けば最適解を得られるという誤解。・・・2つ目は失敗への恐怖。
  • リーン・スタートアップ(小さく始める)・・・その根本は非常にシンプルで、いわば検証と軌道修正の繰り返しだ。
  • 注目すべきは、このRCTが、人命に関わる分野の多くでほとんど実施されていない点だ。中でも刑事司法分野ではほぼゼロと言っていい。医療分野では、2006年の1年間で2万5000件の検証(臨床試験)が行われているが、刑事司法分野では1982年から2004年の22年間でたった85件にすぎない。
  • イギリスの著名な政策アナリスト、デイヴィッド・ハルパーンは次のように指摘する。行政分野の多くでは、この種の検証は全く実施されていません。直感夜間、個人的な思い入れに頼っているんです。行政分野以外でも、状況は変わりません。何が効果的で何がそうでないのかよくわからないまま、当てずっぽうでやっているようなものです。正直言って実に恐ろしい状況です。・・・我々が「わかっているつもりのこと」と「本当にわかっていること」の間には圧倒的な隔たりがある。

データを受け入れない人々

  • フィンケナウアーの検証結果に対して、プログラムの支持者は猛然と抗議を始めた。ドキュメンタリー番組内で惜しげもなくプログラムを称えていたニコラ判事は、「(スケアード・ストレート)プログラムに弁護の必要はない」と言い放った。・・・こうした反応はある程度予想できた。人は自分が深く信じていたことを否定する証拠を突き付けられると、考えを改めるどころか強い拒否反応を示し、ときにその証拠を提示した人物を攻撃しさえする。事実、プログラム擁護者の多くは、フィンケナウアーの検証結果を前に、以前にも増してプログラムの有効性に確信を持つようになったとまで反論している。これこそ認知的不協和の典型と言えるだろう
  • 2002年になると、「キャンベル共同計画」が待ったをかける。キャンベル共同計画は、検証実験に関する啓蒙活動を行う世界的な非営利組織で、RCTによるあらゆる検証データを収集し、メタ解析を含む系統的な分析を行って、その情報を公開している。こうした定量的な分析は、物事の有効性を評価する上で、科学的な根拠に基づく決定的な判断基準となる。ご想像の通り、キャンベル共同計画が行った分析では圧倒的な結果が出た。スケアード・ストレート・プログラムには効果がなかった。そればかりか逆に犯罪を助長した。非行青少年の再犯率が28 %も上昇したというデータも複数見られた。分析結果の報告は、実に冷静なトーンで次のように締めくくられている。スケアード・ストレートに代表されるこの種のプログラムは、有害な影響を及ぼして再犯率を上昇させる可能性が高い。(中略)青少年をプログラムに参加させるより、何も実施しないほうが状況の改善につながったと思われる。
  • プログラムに対する反証データも次々と提出された。アメリカ全土でRCTによる検証が行われ、フィンケナウアーと同じく「効果なし」「子どもたちの心を傷つけるケースが多い」という結果が得られた。ある検証では、介入群は対照群に比べて再犯率が25 %も高まるという結果も出ている。だがどのデータにも勝ち目はなさそうだった。まじめくさったデータより、大げさで派手な物語のほうがはるかに人を惹きつけるのだ

campbellcollaboration.org

難問はまず切り刻め

  • 現代のF1で成功する秘訣は、大きな目立つ要素より、何百、何千という小さな要素を極限まで最適化することです。たとえばエンジンは、大物デザイナーがデザインしたものを上層部が選んで決まると思われがちですが、そうではありません。エンジンだって小さな要素の寄せ集めです。まずは基本的なデザインからスタートして、小さな改善を積み重ねながら、最高の形に近づけていきます。成功は、どれだけ効率のいい最適化ループをつくれるかにかかっています。

脊髄反射的な犯人探し

  • 何かミスが起こったときに、「担当者の不注意だ!」「怠慢だ!」と真っ先に非難が始まる環境では、誰でも失敗を隠したくなる。しかし、もし「失敗は学習のチャンス」ととらえる組織文化が根付いていれば、非難よりもまず何が起こったのかを詳しく調査しようという意志が働くだろう。適切な調査を行えば、ふたつのチャンスがもたらされる。ひとつは貴重な学習のチャンス。失敗から学んで潜在的な問題を解決できれば、組織の進化につながる。もうひとつは、オープンな組織文化を構築するチャンス。ミスを犯しても不当に非難されなければ、当事者は自かの偶発的なミスや、それにかかわる重要な情報を進んで報告するようになる。するとさらに進化の勢いは増していく。

懲罰は本当に人を勤勉にするのか

  •  企業でも病院でも政府機関でも、どこでも常にミスは起こる。それなのに、悪意のない偶発的なミスを責め立てられたら、誰が進んで自分の失敗を報告するだろう?そんな状態で、どうやってシステムが改善されるというのだろう?しかし実際、企業は何かと言えばすぐ非難に走る。しかも単なる脊髄反射的な非難ばかりではなく、もっと狡猾な意図が潜んでいることも少なくない。誰かに責任を被せたほうが、会社にとっては都合がいい。大失敗は一部の「腐ったリンゴ」のせいだということにすれば、企業のイメージを損なわずに済む。「悪いのは会社じゃない。ほんの一部の社員のせいなんです!」というわけだ。
  • 「非難や懲罰には規律を正す効果がある」という考え方が管理職に浸透していることも問題を根深くしている。彼らは「失敗は悪」として厳しく罰すれば、社員が奮い立って勤勉になると信じている。
  • 非難合戦は、このような考えをもとに広まっているのかもしれない。ハーバード・ビジネス・スクールのある調査によれば、社内で起こったミスのうち、企業幹部が本当に非難に値すると考えているものは全体の2~5%にすぎないことがわかった。しかし実際は、70~90 %が非難すべきものとして処理されているという。
  • 2004年、 ハーバード・ビジネス・スクールのエイミー・エドモンドソン教授は同僚とともに、懲罰志向の組織文化がもたらす影響について調査を行った。アメリカのふたつの病院における投薬ミスが調査の中心だが、この結果はほかのさまざまな組織にも広く当てはまる。病院での投薬ミスは驚くほど頻繁に起こっている。アメリカ食品医薬品局(FDA)が発表した論文によれば、投薬ミスは医療ミスのほんの一部にすぎないにもかかわらず、全米で毎年約130万人もの患者がその被害を受けているという。エドモンドソンは、1回の入院につき平均12回の投薬ミスが起こっているというデータも示している。
  • さて、6カ月にわたる調査で、エドモンドソンは大学病院と記念病院の8つの看護チームに着目した。どちらの病院にも一部のチームに厳しい規律があった。そのうちのあるチームでは、看護師長が「一分の隙もないビジネススーツ姿」で、部下の看護師たちを「密室で」手厳しく問いただしていた。また別のチームでも、看護師長は「権威的な存在」と描写されている。このようなチームでは非難が日常茶飯事だ。看護師たちは次のようにコメントしている。「ここは容赦ありません。厳重な処罰が待っています」「いつも裁判にかけられているようなものです」「ミスをしたら有罪なんです」一方、看護師長は、スタッフをうまく管理していると自負していた。自分は規律正しい環境を維持し、官女の側に立って看護師たちに責任を全うさせている、と。
  • 実は調査開始当初は、このような看護師長が正しいと思われていた。規律の厳しいチームでは、看護師からのミスの報告がほぼなかったのだ。・・・懲罰思考のチームでは、確かに看護師からのミスの報告は少なかったが、実際には他のチームより多くのミスを犯していた。一方、非難傾向が低いチームでは、逆の結果が出た。ミスの報告数は多かったが、実際に犯したミスで比べてみると、懲罰志向のチームより少なかったのだ。
  • 「責任を課すことと(不当に)非難することはまったく別だ」と、世界的に著名な人間工学の専門家シドニー・デッカーは言う。「非難すると、相手はかえって責任を果たさなくなる可能性がある。ミスの報告を避け、状況の改善のために進んで意見を出すこともしなくなる
  • ビジネス、政治、航空、医療の分野のミスは、単に注意を怠ったせいではなく、複雑な要因から生まれることが多い。その場合、罰則を強化したところでミスそのものは減らない。ミスの報告を減らしてしまうだけだ。不当に非難すればするほど、あるいは重い罰則を科せば科すほど、ミスは深く埋もれていく。すると失敗から学ぶ機会がなくなって、同じミスが繰り返し起こる。その結果、さらに非難が強まり、隠蔽体質は強化される。

「クビ」は問題を解決しない

  • ある大手投資銀行の例を挙げよう(法的な理由により名前を出すことはできない)。この銀行では自動取引のITシステムに問題が起こり、多額の損失を出した。最高技術責任者(CTO)は,この銀行の誰もシステムを完全に理解していなかったと認めている。しかし問題はそこではない。大規模なITシステムの場合、設計者でさえ隅から隅まで理解していないことはよくある。そのためCTOは、IT部門のエンジニアたちをクビにするのは不公平だと考え、役員会にもそう提言した。実際、エンジニアたちはシステムの設計に最善を尽くし、負荷テストも行ったうえで、
    すでに何カ月も問題なく稼働していたからだ。しかし、CTOの提言は却下された。役員会は問題が起こった原因を系統的に調査することなく、エンジニアたちの「明らかな」ミスだという結論を出した。システムに一番近い関係者に責任を被せた、と言っていいだろう。
  • そもそも役員会にはほかに心配事があった。システムの障害によって何百万ドルという損害が出ており、そのニュースは各地で報道されていた。役員はこの失敗によって銀行の体面が傷つくのを何より恐れていた。ここで断固とした処置をとれば世間に向けていいPRになる。同時に組織内の人間に対しても、失敗には厳しく対処するというメッセージを伝えることができる。彼らはそう考えた。しかし考えてもみてほしい。役員が規律を正すつもりで伝えたメッセージは、スタッフたちにとっては「失敗したら厳しく非難するぞ」「問題を起こしたらスケープゴートにするぞ」という背筋も凍るメッセージでしかない。あるいは「この銀行がこれからも繁栄を続けるためには、自己正当化することが大事だ。ミスは口に出すな。貴重な情報は隠しておけ」と言われたのと同じなのだ。結局エンジニアたちは解雇され、この銀行はその後も、十数回に及ぶ大規模なシステムのトラブルに見舞われることになった。

 

  • 実は、我々の脳には一番単純で一番直感的な結論を出す傾向がある。この傾向には「根本的な帰属の誤り」という堅苦しい名前がついている。簡単に説明するとすれば「人の行動の原因を性格的な要因に求め、状況的な要因を軽視する傾向」だ。しかしこの傾向は、自分のミスになると出てこないらしい。
  • シドニー・デッカーによれば、問題は「誰の責任か?」でも「責任を追求すべきミスと、偶発的なミスとの境界線はどこにあるのか?」でもない。そんなことに一律の線引きは不可能だ。ここで問うべき質問は、「処遇を判断する立場の人間を、スタッフは信頼しているか?」だ。裁く側の人間を信頼することができて初めて、人はオープンになり、その結果、勤勉にもなるのだから。
  • エドモンドソンが調査した記念病院では、懲罰志向のチームのスタッフは看護師長を信頼していなかった。だが病院の経営者にとっては、その看護師長は隙のない、規律に厳しい、ミスを犯した者に間違いなく責任を取らせる強いリーダーだった。患者(病院にとって一番重要な人々)の立場に立ち行動する、よきリーダーに見えた。しかし実際のところ、この看護師長はある意味典型的な職務怠慢だ。自分が管理するシステムの複雑さに正面から取り組まず、非難することにただただ躍起になっていた。失敗をオープンに報告できる環境作りをせず、スタッフがその失敗から学ぶことを妨げていたのだ。
  • ミスの適切な分析を伴わない非難は、組織に最も頻繁に見られ、かつ最も危険な行為のひとつである。こうし 懲罰志向は、「規律と開放は互いに相容れないものである」という間違った信念の上に成り立っている。エドモンドソンはこう指摘する。
  • 病院とはまったく異種の、投資銀行などの管理職にも聞き取りを行ったが、彼らはみなジレンマを抱えていると答えた。「ミスに対して建設的な対応をしたいが、そのせいで何でもありの状態になってしまわないか」「責任を追及しなければ、部下は全力を尽くそうとしなくなるのではないか」。しかしこうした不安は、間違った二分法によって生まれたものだ。本来、不当な非難をせずにミスの報告を促す組織文化と、スタッフに高いパフォーマンスを求める組織文化は共存可能だ。一部の組織においては、その共存は必須ですらある。
  • 公正な文化では、失敗から学ぶことが奨励される。失敗の報告を促す開放的な組織文化を構築するには、まず早計な非難をやめることだ。哲学者カール・ポパーは言った。「真の無知とは、知識の欠如ではない。学習の拒絶である

 成長する人の脳内で起こっていること

  • 2010年、ミシガン州立大学の心理学者ジェイソン・モーザーは、同僚らとともにある実験を行った。この実験では、ボランティアの被験者に脳波測定用のEEGキャップ(電極がついたヘッドキャップ)を被ってもらう。モーザーが知りたかったのは、被験者が何か失敗したときに、脳内でどんな反応が起こるかだ。中でも注目すべきはふたつの脳信号だった。ひとつは「エラー関連陰性電位(ERN)」。これは脳の前帯状皮質に生じる信号で、エラーを検出する機能に関連している。自分の失敗に気づいたあと50ミリ秒ほどで、自動的に現れる反応だ。もうひとつは「エラー陽性電位(Pe)」。こちらは失敗の20~500ミリ秒後に生じる信号で、自分が犯した間違いに意識的に着目するときに現れる反応だ。
  • モーザーの以前の実験では、ERNの反応(単純に失敗に気づいたときの反応)とPeの反応(失敗に意識的に着目して、 そこから学ぼうとする反応)がどちらも強い人ほど、失敗からより素早く学ぶ傾向があるという結果が出ていた。
  • そこでモーザーは、事前のアンケートに基づいて被験者のマインドセット(思考傾向)をふたつに識別し、それぞれをグループに分けた。ひとつは、いわゆる「固定型マインドセット(fixed mindset)」のグループ。「固定型マインドセット」の傾向がある人は、知性や才能はほぼ固定的な性質だととらえている。つまり「自分の知性や才能は生まれ持ったもので、ほぼ変えることはできない」と強く信じている。一方「成長型マインドセット(growth mindset)」の傾向がある人は、知性も才能も努力によって伸びると考える。先天的なものがどうであれ、根気強く努力を続ければ、自分の資質をさらに高めて成長できると信じている。
  • 失敗に対する各被験者の脳波の反応を見てみると、ふたつのグループの間に劇的な違いが表れた。ただしERN (単純に失敗に気づいたときの反応)に関しては、固定型マインドセットの被験者も成長型マインドセットの被験者も、どちらも強い反応が出た。これは当然だろう。「間違えた!」という反応自体は誰にでも起こる。間違えるのは嫌なものだ。とくにアルファベットを識別するだけの簡単なテストでミスをしてしまったとなると、強い反応が出てもおかしくない。一方、Peの反応には大きな差が出た。成長型マインドセットの被験者の反応は、固定型マインドセットの被験者に比べてはるかに強かったのだ。固定型の傾向が最も強い被験者と比べた場合、成長型の反応は3倍にも上った(Peの振幅値で表すと15対5だった)。「はなはだしい違いだ」とモーザーは言う。
  • 固定型マインドセットの被験者は、間違いに着目していなかった。むしろ無視していたと言っていいだろう。一方で成長型マインドセットの被験者は、間違いにしっかりと注意を向けていた。まるで、失敗に興味津々といったように。この実験ではほかにも、Peの反応が強い被験者ほど、失敗後の正解率が上昇するという結果も出た。失敗への着目度と学習効果との密接な相関関係が窺える
  • モーザーの実験結果は、本書のさまざまな考察を裏付ける。個人でも組織でも,失敗に真正面から取り組めば成長できるが、逃げれば何も学べない。考え方の違いは脳波に如実に表れるのだ。失敗から学べる人と学べない人の違いは、突き詰めて言えば、失敗の受け止め方の違いだ。成長型マインドセットの人は、失敗を自分の力を伸ばす上で欠かせないものとしてごく自然に受け止めている。一方、固定型マインドセットの人は、生ほれつき才能や知性に恵まれた人が成功すると考えているために、失敗を「自分に才能がない証拠」と受け止める。人から評価される状況は、彼らにとって大きな脅威となる。

 成長が遅い人は失敗の理由を「知性」に求める

  • このような考え方が人の行動にもたらす影響は、すでに数々の研究で実証されている。心理学者のキャロル・ドウェックは、同僚とともに行ったある実験で、11~12歳の子どもたちをふたつのマインドセットのグループに分けた。そして8つの「簡単なタスク」を与えた後、4つの「困難なタスク」を課した。すると「困難なタスク」に突入したとたん、各グループの反応に驚くべき差が出た。ドウェックはこう書いている。
  • 固定型マインドセットの子は、いともあっさりと自分の能力を過小評価し、失敗を自分の知性のせいにしはじめた。「きっとボクはあまり頭がよくないんだ」「前から記憶力が悪かったから」「こういうのはもともと苦手なんだ」
  • 困難なタスクに対して、このグループの子どもたちの3分の2は明らかにおざなりな態度を示すようになり、半分以上はまったく効果のない方法で取り組み続けたという。一方、成長型マインドセットの子どもたちの反応はどうだったか?
  • 彼らは自分たちが失敗しているとはまったく考えていなかった。(中略)楽観主義とも合わさって、80 %以上が、困難なタスクに対して最初のやる気を維持するか、取り組み方を改善しようとした。全体の4分の1は実際に改善している。彼らは困難なタスクに対して、より洗練された方法を自分たちで考え出した。ごく一部の子どもは、彼らの理解力を上回ると思われる問題まで解決した。
  • ドウェックは、もともと能力に差がない子どもたちを被験者に選んでいた。グループに分けたあとも、どちらも同じようにやる気を出すよう配慮した(事前に子どもたち自身に好きなおもちゃを選ばせ、あとであげると約束した)。それでも、最後までがんばり抜く子と、難しくなると萎れてしまう子に分かれた。マインドセットが決め手となり、これほど大きな差が生まれたことは驚きに値する。

「成長型」企業、「固定型」企業

  • 固定型マインドセットの企業と成長型マインドセットの企業の間には、非常に顕著な違いが見られた。まず固定型マインドセットの企業で働く社員は、ミスや非難を恐れており、社内ではミスが報告されないことのほうが多いと感じていた。また、次のような項目に同意する傾向が見られた。「この会社では、ほかの社員を出し抜く行為や、作業の手抜きが頻繁に行われている」「この会社では、しばしば情報が隠蔽されている」
  • 一方、成長型マインドセットの企業では誠実で協力的な組織文化が浸透しており、ミスに対する反応もはるかに健全だった。また次のような項目に同意する傾向が見られた。「この会社ではリスクを冒すことを純粋に奨励していて、失敗しても非難されない」「この会社にとって失敗は学習の機会であり、それがいずれ付加価値となるととらえている」「この会社では革新的に考えることが奨励され、創造力が歓迎される」
  • 後者の組織文化が成長や進化をもたらすことは、もう言うまでもないだろう。ここまでの章で取り上げた、大成功を収めた企業の組織文化ほぼそのものだ。事実、「社内で不正や非倫理的な行為が頻繁に見られるか?」という問いに対して、「いいえ」と答えた社員は、成長型マインドセットの企業のほうが固定型の企業より41 %も多かった。

 

成長型マインドセットは「合理的」にあきらめる

  • 現代社会における問題のひとつは、「成功は一夜にして生まれるもの」という幻想が広まっていることにある。しかし現実には、成功はそんなに簡単に手に入らない。フリーキックを極めるにも、軍の士官になるにも、極めて長い時間がかかるのはここまで見てきた通りだ。だが、それゆえに成長型マインドセットの人は、無理なタスクにも粘り強くがんばり続けてしまうのではないか?達成できないことに取り組み続けて、人生を無駄にするのではないか?
  • しかし、実際はその逆だ。成長型マインドセットの人ほど、あきらめる判断を合理的に下す。ドウェックは言う。「成長型マインドセットの人にとって、『自分にはこの問題の解決に必要なスキルが足りない』という判断を阻むものは何もない。彼らは自分の"欠陥"を晒すことを恐れたり恥じたりすることなく自由にあきらめることができる」
  • 彼らにとって、引き際を見極めてほかのことに挑戦するのも、やり抜くのも、どちらも成長なのだ。・・・我々が最も早く進化を遂げる方法は、失敗に真正面から向き合い、そこから学ぶことなのだ。

 

なぜ日本には起業家が少ないのか

  • 失敗に対する姿勢の違いについて、ここでは起業精神という観点から考えてみたい。アメリカの起業家は、最初のベンチャーが失敗してもそこであきらめることは滅多にない。「自動車王」ヘンリー・フォードはその典型だ。彼が最初に起業したデトロイト自動車会社は失敗に終わった。次のヘンリー・フォード・カンパニーもそうだ。そして3番目に創業したフォード・モーター・カンパニーで世界を変えた。彼はこんな言葉を残している。「失敗は、より賢くやり直すためのチャンスにすぎない」
  • 一方、日本ではまったく文化が異なる。複雑な社会的·経済的背景の影響によって、失敗は不名誉なものと見なされる傾向が強い。失敗は、基本的に自分だけでなく家族にとっても恥なのだ。ビジネスが失敗して非難されるのは珍しいことではなく、非常に厳しく責任を追及されることも多い。
  • 起業意識の違いが、経済全体に実質的な影響を及ぼすことは言うまでもない。ウォートン・スクールの学生が書いた論説では次のように書かれていた。「日本では『機会志向(Opportunity-driven)』の起業精神が相対的に不足しており、それが過去20年間の経済停滞の一因となっている一方、アメリカでは、起業家精神が経済繁栄をもたらした要因のひとつと考えられているようだ。「実証研究によって、機会志向の起業精神こそが、現在の市場経済における成長の源だということが明らかになっている」
  • しかし起業精神の違いは、本当に失敗の受け止め方の違いによるものなのだろうか? その答えを出そうと、GEMは2009年、イノベーション志向の先進諸国20カ国で、起業に関する大々的な意識調査を行った。結果は明白だった。起業失敗に対する恐怖心が最も高かったのは、日本人だったのである。アメリカ人は最低クラスだった。この傾向は5年後も変わらなかった。

 

  •  宗教的な世界観は「固定」されていた。何十年どころか何百年も科学の進歩が滞っていたのはそのためだ。失敗が深刻な認知的不協和を生む医療業界も、これと似ている。問題の背景が複雑なことに加えて、ベテラン医師に対する全能の神のような扱いが、学習を困難にしている要因のひとつであることは間違いない。ベテラン医師が、自分の失敗を受け入れられない、あるいは失敗が起こり得ることさえ認められない心理状態は、「神コンプレックス」と呼ばれる。
  • 刑事司法制度においても、同じような無謬主義(自分たちの思想に間違いはないという考え)が見られる。とくに不当な有罪判決に関してはその傾向が強い。
  • アメリカの哲学者ヒラリー・パトナムはこう言った。「科学とそれ以前の思想とでは、真実を発見する方法が異なる。科学者は自らの理論を進んで検証し、自分が万能だとは考えない。(中略)自然に問いかけ、うまく理論が成り立たなければ、その考えを進んで改めていかなければならないのだ
  • 中世の科学に関して、ベーコンは、知識が権威者から独断的に示される状況を批判していた。今日の社会におけるトップダウン的な知識の押し付けも、状況は似ている。政治家が持論を展開するときがいい例だろう。「制服にすれば規律が高まる」「非行少年に刑務所を訪問させれば犯罪抑止効果がある」などがその典型だ。一部の政治家は自分の洞察を勝手に真実と確信し、データも検証も必要ないと考える。
  • 互いの挑戦を称え合おう。実験や検証をする者、根気強くやり遂げようとする者、勇敢に批判を受け止めようとする者、自分の仮説を過信せず真実を見つけ出そうとする者を、我々は賞賛するベきだ。
  • 「正解」を出した者だけを褒めていたら、完璧ばかりを求めていたら、二度も失敗せずに成功を手に入れることができる」という間違った認識を植え付けかねない。複雑すぎる社会では、逆にそうした単純化が起こりがちだ。もしその間違いを正すことができれば、我々の生活に革命が起こると言っても過言ではない。失敗に対する自由な姿勢は、企業、学校、政府機関などほぼすべてのあり方を変える。もちろん簡単なことではないし、抵抗も受けるだろう。しかしその壁を乗り越えていくだけの価値はある。
  • ブライアン・マギーは、カール・ポパー反証主義を引き合いに出してこう言っている。自分の考えや行動が間違っていると指摘されるほどありがたいものはない。そのおかげで、間違いが大きければ大きいほど、大きな進歩を遂げられるのだから。批判を歓迎し、それに対して行動を起こす者は、友情よりもそうした指摘を尊ぶと言っていい。己の地位に固執して批判を拒絶する者に成長は訪れない。我々の社会に大きな転換が起こり、ポパー的な反証主義で批判をとらえる姿勢が広く浸透すれば、私生活にも、社会生活にも革命が起こり得る。もちろん、仕事をする上でも例外ではない。

究極の失敗型アプローチ:事前検死

  • 近年注目を浴びている「失敗ありき」のツールがもうひとつある。著名な心理学者ゲイリー・クラインが提唱した「事前検死(pre-mortem)」だ。これは「検死(post-mortem)」をもじった造語で、プロジェクトが終わったあとではなく、実施前に行う検証を指す。あらかじめプロジェクトが失敗した状態を想定し、「なぜうまくいかなかったのか?」をチームで事前検証していくのだ。失敗していないうちからすでに失敗を想定し学ぼうとする、まさに究極の「フェイルファスト」手法と言える。チームのメンバーは、プロジェクトに対して否定的だと受け止められることを恐れず、懸念事項をオープンに話し合うことができる。
  • この事前検死は、「失敗するかもしれない」と考えるのとはまったく異なる。チームのメンバーは「プロジェクトは失敗した」「目標は達成できなかった」と伝えられ、いわば「すでに死んでいる」状態から始まって、検死(検証)を行う。このように失敗という抽象的な概念を具体化すると、間題に対する意識の持ち方が変わる。
  • この手法は行動経済学ダニエル・カーネマンら第一級の思想家に支持されている。「事前検死はすばらしいアイデアです」とカーネマンは言う。「私はダボス会議でその話をしました。
  • 前検死は非常にシンプルな手法だ。まずチームのリーダー(プロジェクトの責任者とは別の人物)は、メンバー全員に「プロジェクトが大失敗しました」と告げる。メンバーは次の数分間で、失敗の理由をできるだけ書き出さなければならない。その後、プロジェクトの責任者から順に、理由をひとつずつ発表していく。それを理由がなくなるまで行う。クラインは、この方法で、通常なら埋もれていたであろう理由が浮かび上がってくると言う。