経営学研究でどのように実践へのインパクトを生み出せばよいのか

経営学は応用的学問でもあるため、研究するにあたっては当然のことながら、この研究がどのようにして経営の実践に影響を与えることができるのかを考えざるを得ない。そして、実践へのインパクトに関する、実務家からの批判も、経営学内部からの自己批判もある。つまり、経営学研究は、十分に経営学の実践の役には立っていないのではないかという批判である。これを、research-practice gapという言葉で表現することもある。これに関してSimsek, Bandal, Shaw, Heugens, & Smith (2018)は、典型的な視点を批判的に検討しつつ、経営学研究でどのように実践へのインパクトを生み出せばよいのかについては典型的な視点を含め少なくも3つの視点で考えるべきであることを主張する。


その前に、基本的な事柄について確認しておこう。そもそも、学問としての経営学は、できるだけ幅広い経営現象に適応可能な、すなわち汎用性や抽象度の高い、かつ信頼できる知を生み出すことを主眼としている。一方、実務家の場合は、今、自分の目の前にある固有の問題を解決するための策を探している。であるから、実務家の目の前にある固有の問題の処方箋のようなものを提供することを経営学が期待されているわけではない。つまり、実践へのインパクトというのはそういう意味なのではない。では、経営学に求められる実践へのインパクトととは何かと言えば、実務家が問題解決などの経営実践を行ううえでの新しい見方、考え方を提供するということなのである。例えば、マイケル・ポーター流に業界分析一辺倒で戦略策定をしようとしている実務家に対して、戦略とはプロセスであるという視点を提供したり、企業の持つ資源が持続的競争優位性の源泉であるという視点を提供することである。そうすれば、実務家が視野狭窄に陥ったり、誤った前提に基づいた実践を行ったりするのを防ぐとともに、ブレークスルーやイノベーションを起こしたりすることを可能にする。


改めて、経営学が上記のような意味での実践へのインパクトを与えられているかを考える際に、もっとも典型的な視点は、論文などの研究成果がどれだけ実践的インパクトがあるかということであり、経営学者の多くが自分の研究を推進するにあたって最初に考えることであろう。個々の論文にはたしかに「実践的含意(implications for practice)」のセクションがあったりするが、せいぜい数段落にしかすぎない。それでよいのだろうか。しかし、Simsekらは、経営学者は、個々の研究、論文の実践へのインパクトに過度に神経質になる必要はなく、むしろ、経営学として構築しようとしている集合的知識体系にもっと注目すべきであると指摘する。忘れてならないのは、経営学は信頼できる知の生産でもあるという点である。よって、個々の研究では狭い範囲でありながら厳密な方法論で精巧な知を構築することが重要となる。スマートフォンに例えれば、内部にある微小な部品の1つ1つが、1本1本の論文に相当する。微小な部品が精巧でなければ、高性能なスマートフォンが実現しないのは明らかである。経営学そのものは、膨大な数の研究者の共同作業による知識体系構築の実践である。であるから、重要なのは、その集合的成果なのである。そう考えるならば、戦略論や組織行動論、およびそのサブ分野としてのリソースベーストビューやモチベーション理論などは、これまで実務家の視点を転換するような重要な役割を果たしてきたといえるし、経営学として恥ずべきことではないだろう。


さらにSimsekらは、上記のような問いの立て方は典型的なものではあるが、暗黙的に、経営学者→実務家という方向性しか想定していない一面的なものに過ぎないことを指摘する。研究が終わってしまってから、論文が発表されてから、「さて、どうやってこの研究成果を実務社会に還元しようか」と考えるのも同じ典型例である。Simsekらは、この視点の他に少なくともあと2つの異なる視点があるという。1つは、研究を実践していくプロセスにおいて、実務家と対話をしていくことである。例えば、未知な経営現象を解明するためにすすんで実務の世界に入りこんで、実務家との対話を重ね、そこから知を生み出していくような方法である。そのようなプロセスを通して実践に対するインパクトを与えていくことは十分に可能だとSimsekらは言うのである。例えば、そのようなプロセスを通して実務の世界に近いところで生み出された知識は、実践的文脈とのつながりも強く、実務家にとっても肚落ちが大きいだろう。また、研究プロセスを通した研究者と実務家との対話そのものが、実務家に新たな視点や気づきを与えるというインパクトもあるだろう。


さらにもう1つの視点は、研究者と実務家が共同で経営学研究を行うというものである。実務家にも経営学における知の構築作業に積極的に参加してもらうというわけである。そうすれば、経営学研究としても、より実践に即した研究がしやすくなる。例えば、実験室のような非現実的な環境を使って実験を行うよりも、実務家の協力を得て本物の組織で実験を行うことも可能である。そのようにして生み出された知識は、より説得力があって実務家にも信頼されるものとなるだろう。実務家にとっても、経営学研究に参画することで、経営学の本質や役割についての理解も進み、より効果的な形で経営学の研究成果を実践に生かすことができるようになるだろう。

文献

Simsek, Z., Bansal, P., Shaw, J. D., Heugens, P., & Smith, W. K. (2018). From the Editors—Seeing Practice Impact in New Ways. Academy of Management Journal, 61, 2021-2025

マルチレベル分析で説明変数を中心化する際のポイント

マルチレベル分析を実際に行うときによく出てくる疑問として、説明変数を中心化(センタリング)すべきかどうかというのがある。とりわけ、マルチレベル分析では、説明変数を集団内での平均値を用いて中心化する方法(集団平均中心化:group-mean centering)と、サンプル全体の平均値を用いて中心化する方法(全体平均中心化:grand-mean centering)の2つがあるが、この2つの違いと、どのような時にどちらの中心化を用いればよいかについて混乱してしまう場合がある。そこで、清水(2014)をベースにこの2つの中心化の意味、違い、効用について理解してみよう。


そもそもマルチレベル分析は、ある特殊なデータ構造(例えば、階層的データ)であるために、従属変数あるいは結果変数に個人レベルの効果と集団レベルの効果が混在している可能性がある場合に、これらの効果を分離することを目的としている。マルチレベル分析が一般化線形混合モデルの1つであると言われる所以でもある。例えば、ある県における学校ごとに数学の得点と志望校合格可能性の関係に関するデータがある場合、実際の志望校合格可能性の値は、学校内の本人の数学得点の位置づけと、学校全体としての数学力の水準(県内での学校別数学平均点)の両方の影響を受けていると考えられる。マルチレベル分析は、この2つを分離し、それぞれの効果を推定しようとする。


常にそうであるわけではないが、清水によると、集団平均中心化はおもにレベル1(例、個人レベル)の式に投入する説明変数に施し、全体平均中心化はレベル2(例、集団レベル)の式に投入する説明変数に施すことが多い。総論として、説明変数を中心化するメリットあるいは目的は主に2つある。1つ目は、一般的な重回帰分析における交互作用分析のように、説明変数を中心化することで、クロスレベル交互作用を推定する際などの多重共線性の影響を軽減する目的である。この目的はマルチレベル分析に限った話ではない。2つ目は、説明変数を中心化することで、先ほど述べた個人レベルの効果と集団レベルの効果との分離をクリアにしたり、結果の解釈をしやすくするという目的である。こちらはマルチレベル分析特有の目的もしくはメリットといえる。以下はこの2つ目のメリットに焦点を当てる。


まず、レベル1の式に投入する説明変数に集団平均中心化を施すとどうなるか。まずいえることは、集団中心平均化後は、どの集団(レベル2の単位)においても、集団平均の値がゼロになるわけだから、分散分析のアナロジーを用いるならば、当該説明変数については集団間で平均値のばらつきが全くなくなるということになる。ということはどういうことかというと、モデル式を構築して分析する際に、説明変数の集団の平均値(つねにゼロ)は結果変数に影響を及ぼさないということになる。つまり、純粋に集団内の個人の得点の違いが結果変数に影響を及ぼすというモデルになるので、集団平均中心化を施すことによって当該説明変数に関しては集団レベルの水準の違いに基づく効果を完全に取り除いたことになる。また、レベル1の式に投入する説明変数に集団平均中心化を施した場合に得られる切片は、説明変数が集団内の平均値であるときの値だという解釈になる。


次に、レベル2の式に投入する説明変数の全体平均中心化を施すとどうなるか。これは、レベル2の式の切片を、説明変数が全体平均のときの値として解釈できるようにすることを意味する。さらにいうと、マルチレベル分析でクロスレベル交互作用をモデル化する際に、レベル1の式における説明変数の回帰係数がレベル2の式における切片すなわち説明変数が全体平均のときの値として解釈できることを意味する。もし、レベル2の説明変数の中心化を施さない場合、クロスレベル分析から得られるレベル1の説明変数の回帰係数が何を意味しているのかの解釈が難しくなる場合がある。なぜならば、レベル2の切片は単純に説明変数の値がゼロのときの値であるが、1から7のリッカート尺度など、説明変数の値がゼロであることに深い意味がない場合もあるからである。

学際的理論構築の作法

経営学は基本的に学際的な学問である。経営学という独自の方法論が存在するわけではなく、経済学、心理学、社会学、人類学、政治学などから関連する概念や理論、方法論を借用することで、経営にまつわる現象の理解を志向してきたのである。よって、理論構築においても、異なる学問分野から理論や概念をもってきて統合することはよく用いられる研究方法である。これに関し、Shaw, Tangirala, Vissa & Rodell (2018)は、学際的な理論統合のポイントについて解説している。


まず、どのようなときに学際的理論統合を用いることが良いのか。Shawらによれば、学際的理論統合の目的は主に3つある。1つ目は、経営における新たな現象が出現したときなど、ある経営現象を的確に説明できる理論が存在しない場合に、新たな理論を構築しようとするという目的である。例えばある研究では、小さな出来事が大きな組織変革につながるような事例を説明するために、既存の経営理論にはなかったものとして、物理学や生物学で研究されてきた複雑適応系の理論を援用した。2つ目は、特定の現象についての理解や思考をより透明化すなわちクリアにするという目的である。例えば、既存の理論で説明しようとすると常に一定の例外事項が生じる場合に、それを説明するために他分野の理論を既存理論と統合するようなケースである。ある研究では、なぜ成果主義が常に良い結果を生み出さないのかを理解するために、経済学と心理学の理論を統合することで解決しようとした。3つ目は、特定の経営現象を、これまでとは全く異なる視点から眺めようとする目的である。例えばある研究では、組織や人々が活動するタイミングを理解するために、全体性、リズム感、調和などを理解する音楽理論を援用しようとした。もっとも、これらの3つのパターン以外の目的もあるとShawらは補足している。


では、学際的理論統合を行うのに効果的な方法はなんだろうか。Shawらによれば、1つ目のポイントとしては、特定の現象を説明するさいに、異なる理論や学問分野を用いる場合の類似点と相違点を明らかにするということである。それぞれの理論や分野は、どのような前提のもとで展開されているのだろうか。その前提の類似点と相違点は何か。例えば、人間行動について、経済学と心理学はどのような前提を置いているのか。それを理解することによって、なぜ、異なる理論や分野が同一の対象に対して相反する予測をするのかの理解が可能となり、それらを統合するとどのように説明力が増すのかが明らかになる。2つ目のポイントは、異なる理論や分野の守備範囲の違いを意識することである。例えば、ミクロな個人レベルは心理学の守備範囲となるが、集団や組織のようなマクロレベルになると社会学の守備範囲になってくる。しかし、どこかにこれらの守備範囲が交差する節合点がある。そこに、それらの理論を統合して新たな理論を構築する機会が出てくる。3つ目のポイントは、ある分野が別の分野から借用して発展し、その別分野がさらに当該分野から借用して発展するという相互作用を意識することである。


さらに、学際的理論統合を行うさいに注意すべき点として、Shawらは以下の点を挙げている。まず、異なる理論や分野を統合しようとするさい、その理論や分野の前提に適合性があるかということである。もし、異なる分野の前提が対立していてお互いに相容れないものである場合には、理論統合することは適切ではない。なぜならば、片方の理論の前提が、他方の理論の前提を否定してしまうからである。また、理論統合を行う際には、読者とのコミュニケーションをより透明化する必要がある。例えば、異なる分野や理論によって、対象に対して異なる前提を置いていることは当然であるが、さらに異なる用語、概念、概念定義を用いていたりする。よって、これらを明確かつ明示的に示したうえで議論を展開し、理論統合を図っていく必要があるのである。

文献

Shaw, J. D., Tangirala, S., Vissa, B., & Rodell, J. B. (2018). New ways of seeing: Theory integration across disciplines. Academy of Management Journal, 61, 1-4.

構造方程式モデリング(SEM)においてアイテムの小包化(parceling)をするべきか

構造方程式モデリングあるいは共分散構造分析は、経営学をはじめとする社会科学で頻繁に用いられる統計分析手法である。構造方程式モデリングを用いる利点の1つは、研究の対象となっている構成概念(実際は測定できない抽象的な概念であるが、なんらかの測定可能な項目によって把握するもの)どうしの因果関係や相関関係について、その測定誤差を取り除いたうえでの関係を検証することができる点にある。例えば、オーソドックスな重回帰分析の場合、測定された変数を足し合わせたり平均をとることによって構成概念を示す変数を作成してしまってから分析を行っているので、分析に測定誤差の存在が前提とされておらず、分析結果に測定誤差が混ざってしまう。つまり、これらの分析では、測定変数間の関係を検証することになるので、100%完璧に概念を測定しきれていない限りにおいては、本当に知りたい構成概念間の関係を把握しきれないことになる。しかし、構造方程式モデリングの場合、構成概念間の関係も測定誤差も両方とも1つのモデルで表現して分析するので、構成概念間の関係のみに着目するならば、そこには測定誤差が分析から除かれているため、真の構成概念間の関係を検証していることになるのである。


そこで、実際の研究で構造方程式モデリングを実施する際にしばしば用いられるのが、アイテムの小包化(パーセリング、parceling)というものである。これは何かというと、例えば、1つの概念を測定するのに10個の質問項目を用いているとする場合、標準では10個の項目をすべて構造方程式モデリングに含めるのであるが、何らかの方法を用いてこの数を減らす作業をするということである。つまり、分析に用いるべき複数の項目を包んで1つにしてしまう。例えば、因子負荷量が最大の項目と最小の項目の平均をとった項目を新たに作成し、残ったアイテムの中から因子負荷量が最大の項目と最小の項目の平均をとった項目を新たに作成するといったことを繰り返すと、10個の項目は5個に減る。これは小包化の一例にすぎないが、小包化の方法については、絶対的に正しい方法が存在するわけでもなく、かつ、実際の統計分析においてアイテムを小包化することが本当に適切なのかどうかについても、方法論的あるいは科学哲学的なスタンスによって賛否両論がある。


ではまず、なぜ研究者は実際の分析においてアイテムの小包化をしようとするのか。その理由は、構造方程式モデリングで推定しなくてはならないパラメータの数とサンプルサイズとの関係が絡んでいる。上記で示したように、構造方程式モデリングでは、構成概念間の関係と、測定された個々のアイテムと構成概念との関係の両方を含んだモデル全体のデータとの適合性を検証しようとするので、モデル自体が複雑で、推定しなくてはならないパラメータが非常に多い。サンプルサイズが十分に大きい場合にはそのような複雑なモデルであっても比較的安定した推定結果が得られるであろうが、経営学などの社会科学の多くでは、諸般の理由で十分なサンプル数が確保できな場合が多い。よって、ベストエフォートで収集された最大限のサンプル数を用いて、最善を尽くした統計分析を施すことによって統計学的推論を行う必要が出てくる。よって、アイテムの小包化によって、推定するべきパラメータの数を減らすことで、安定したパラメータ推定を実現しようとする。これが実務的には小包化をするもっとも多い理由であろう。例えば、Landis, Beal, & Tesluk (2000)による解説によると、1つのパラメータの推定において、5~10のサンプル数が必要だとの見解がある。仮に、サンプル数が100しかないとすると、推定するのに適したパラメータの数は、せいぜい10~20ということになる。これ以上推定すべきパラメータの数が多いと安定した推定ができない可能性が高まる。このように、推定が必要なパラメータ数に比してサンプル数がこの基準に満たない場合には、小包化によってこの基準に近づけようとする努力がなされる。


そのほか、サンプルサイズの問題以外の理由として、十分なサンプルサイズがあったとしても、測定アイテムが非常に多いと、想定した構成概念以外からも影響を受けるアイテムが出てきたり、通常はモデルで前提としないのだが、複数の測定誤差がお互いに相関したりする事態も生じたりするため、構造方程式モデル全体の適合度が落ちやすい。これを防いで、モデルの適合度を上げるために小包化を行うことも多い。小包化することでまとめたアイテムすなわち観測変数は、個々のオリジナルなアイテムよりも正規分布しやすいなど推定上の利点もある。つまり、どのような研究においても測定誤差がゼロということはありえないし、なんらかの測定上のズレが出てくるので、許容できる範囲内でやや多くの誤差が含まれる測定しかできなかったとしても、そこから最善の策で正しい統計学的な結論を導こうとする姿勢の表れであるともいえる。


構造方程式モデリングにおけるアイテムの小包化については賛否両論があると述べたが、まず、もっとも望ましくないのは、何の理由も考えず、盲目的に小包化をするということである。それを除けば、小包化が望ましい場合と、望ましくない場合があるだろう。これについても諸説あるが、シンプルな基準としてPhemtulla (2016)による解説を用いるならば、次のようになる。まず、研究の重点が、測定モデルの検証、すなわち、いかに質問紙などの測定方法が、知りたい構成概念を正確に測定できているかを検証することにあるのであれば、小包化は望ましくない。一方、研究の関心が、構成概念間の関係についての検証に焦点が当たっている場合には、小包化によって構造方程式を簡素化することで、サンプル数になどに適した推論が得られる可能性が高い。しかし、このような場合でも、小包化がいつでも望ましいわけではない。例えば、構成概念の測定自体の精度があまり高くない場合には、その影響が分析結果に出てしまい、不適切な結論に至る可能性がある。


冒頭で述べたオーソドックスな重回帰分析との比較を例にざっくりとしたイメージを言うならば、構造方程式モデリングの小包化をもっとも極端な形で行うと、すべての構成概念が限りなく測定された変数そのものに近づいていくので、オーソドックスな重回帰分析そのものとほぼ変わらないということになる。よって、オーソドックスな重回帰分析と比較した場合の構造方程式モデリングの有意性はなくなる。よって、アイテムの小包化を行った場合、それは、まったく小包化を行わない構造方程式モデリングと、オーソドックスな重回帰分析、あるいは、測定モデルを考慮しないパス解析モデルの中間のような感じになると考えればよいだろう。


要するに、構造方程式モデリングで小包化を実施することを検討する場合には、その長所、短所と、危険性を十分に検討したうえで、意思決定をする必要があるということである。小包化をするのが正しいのか間違っているのかというのは、方法論的、科学哲学的スタンスによって変わってくる。どれだけ厳密に科学的な結論を追究するのか、あるいはどれだけ柔軟性を確保して実用的に適切な結論を導こうとするのかである。これには答えがない。例えば、よくやり玉にあがる「5%水準で有意」というものも、5%というのは経験則もしくは慣例でしかないのだから、統計的な有意性でもって結論を出すことが適切なのかどうかというのも、そこに絶対的な答えはないのである。

文献

Landis, R. S., Beal, D. J., & Tesluk, P. E. (2000). A comparison of approaches to forming composite measures in structural equation models. Organizational Research Methods, 3(2), 186-207.
Rhemtulla, M. (2016). Population performance of SEM parceling strategies under measurement and structural model misspecification. Psychological Methods, 21(3), 348-368.

時間は未来から過去に流れる

多くの人は、時間は過去から現在へ、そして未来へと流れるというように考えるのではないだろうか。しかし、主に認知言語学的視点から時間を考察する瀬戸(2017)によると、このイメージは錯覚である可能性が高い。むしろ、様々な認知言語学的証拠によって、われわれにとっての時間は、未来から現在へ、そして現在から過去に流れていく存在であることが確認できることを瀬戸は示してくれる。つまり、空間的にとらえるならば、未来は後ろ、過去は前であり、時間は、後ろから前という方向で未来から過去に向けて流れるものなのである。以下に、その証拠を示していこう。


まず、未来の時間は遠いところからどんどんと私たちに近づいてくる。例えば、平成の終わりはまだまだ遠いと思っていたが、気がついたらもうすぐやって来ることに気づく。春が来ると、もうそこに平成の終わりがある。そして、現在の時間はすぐに過去となり、過去となった時間はどんどんと遠ざかっていく。そもそも、未来とは「未だ来ざるもの」、すなわちまだであるが、いずれ、こちらにやって来るものである。過去とは、過ぎ去っていくもの。どんどんと遠ざかっていくものである。前後関係でいうならば、未来は「10年後」というように後ろであり、過去は「10年前」というように、前である。


しかし、私たちと時間との関係でいくと、時間は常に未来が後ろで、過去である前に向かって流れるのであるが、それを認識している私たちは、前をむいて未来を見ており、後ろむいて過去を振り返る。時間を川の流れにたとえ、橋からその川を私たちが眺めているのを想像してみると、未来は私たちの「前」にある。過去は私たちの「後ろ」にある。私たちにとっての前から、未来が流れてくる、そして私たちの後ろに向かって流れていくのである。時間本位で見るのと、自己中心的に見るのとでは、当たり前ではあるが前後が逆である。ここに、時間が過去から現在、未来に流れていくという錯覚の原因がありそうであることを瀬戸は示唆する。


別のたとえとして、各時刻を電車の駅として、私たちが電車にのってその駅をつぎつぎと通過していく様子をイメージしよう。私たち自身は、電車として、過去から現在、そして未来へという方向で進んでいるのである。そして、相対的に見れば、鉄道の各駅である各時刻は、私たち電車からみて前の方向からどんどんこちらに近づいてきて、特定の時刻(駅)を通過すれば、その駅は私たちの後ろにどんどん遠ざかっていく。もうおわかりのように、過去から現在、未来へと進んでいくのは私たちであって時間ではないのである。相対的に、時間は未来から現在へ、そして過去へと流れていく。川の流れのたとえも、電車のたとえも、例えに過ぎないので、時間と私たちのどちらが止まっており、どちらが動いているかという問いは意味がない。要するに、時間とそれを認識する私たちの位置関係が相対的であるということなのである。


もっとも、「時間が流れる」というのは、時間を流れに例えるメタファーの働きにすぎないことを瀬戸は示唆する。当然、時間には他のメタファーもある。もっとも頻繁に用いられるのが、「時は金なり」とか、「時間がなくなる」といったような、時間を測定可能な資源と捉えるメタファーであり、そのほかにも、「時間が癒してくれる」とか、「時間に追われる」といった擬人的なメタファーもある。要するに、時間という抽象概念は、メタファーなくしては理解できるものではなく、どのメタファーを使うかによってその特徴も異なってくるのだといえよう。

ブートストラップ法の直感的理解

経営学においても近年よく用いられる統計手法として、ブートストラップ法(bootstrap method)というのがある。これは、リサンプリング(再抽出)という統計手法の1つで、似たようなものに、ジャックナイフ法というのもある。ブートストラップ法とは、何をねらいとして、どういうロジックに沿って行う統計手法なのだろうか。この点にかんして三中(2018)は、このような手法を直観的に理解するのに役立つ解説をしている。結論じみたことを先に言ってしまうと、ブートストラップ法を含むリサンプリング統計学のポイントは、無作為サンプルを擬似的な母集団に見立て、サンプルに揺さぶりをかけることで擬似的なばらつきを生み出し、それを利用して統計的な推論を行うということである。


そもそも、統計分析が目的とする統計的検定や推論は、母集団から無作為に抽出したサンプルを対象とした分析により、母集団の特徴を推測することを指す。しかし、当たり前だが、サンプルから導き出される統計量(例えば標本平均)は、本当に知りたい母集団の統計量(例えば母平均)と一致するはずがないため、どれくらいそれが正確に推測できているのか、すなわちその誤差も推測する必要がある。伝統的なパラメトリック統計学では、母集団が正規分布をしていると仮定できて、かつ、推測する統計量が比較的単純な場合は、統計学で証明されている法則を用いて「計算」で求めることができる。例えば、サンプル数が十分あるとき、中心極限定理により、サンプル平均の確率分布は母集団平均と標本分散をサンプル数で割った値を分散とする正規分布に従うことがわかっているので、それを利用して計算する。


しかし、母集団の分布がわからず、正規分布であると仮定できない場合や、対象となる統計量が複雑である場合には、母集団の特徴、例えば母平均の推定値とその誤差をサンプルを用いた計算によって推測することができない。このような場合、母集団から何度も何度もサンプルを取り直して、その都度計算したサンプル統計量の実際の分布を調べれば、母集団の分布を推測することができる。いわば、統計学的定理からエレガントに計算して推測するのではなく、泥臭い単純作業を繰り返しながらマニュアル的に推測するわけである。しかし、母集団から何度も何度もサンプルを取り直すことなど非現実的で、ほとんどの場合、実現不可能である。しかし、このようなマニュアル的な考え方にヒントを得て、発想の転換を行うことで編み出された方法が、リサンプリング統計学であり、ブートストラップ法なのである。


つまりどういうことかというと、母集団から何度もサンプルを取り出すのではなく、無作為抽出されたサンプルを母集団に見立てて、あるいは擬似的な母集団と想定して、そこから無作為にサブサンプルを取り出すことを繰り返すということなのである。乱暴な言い方をするならば、実際のサンプルを母集団にすり替えてしまい、そこからサブサンプルを何度も抽出することで、先ほどの「母集団から何度も何度もサンプルを取り直す」というロジックをそのまま拝借して、母集団の統計量や誤差を推測してしまおうとするわけである。このプロセスをリサンプリングという。母集団に関する推定値と誤差を計算するときに、理想形は「母集団から何度も何度もサンプルを取り直すことでバラツキを得る」のに対し、リサンプリングでは「無作為サンプルを揺さぶってたくさんのサブサンプルを生み出すことでバラツキを得る」わけである。


ブートストラップ法は、リサンプリングの中でも、重複を許して無作為同数リサンプリングを反復する方法で、重複を許さずに無作為リサンプリングを反復する方法がジャックナイフ法である。どちらにせよ、パラメトリック統計学のように、母集団の確率分布やモデルを仮定する必要がないので、その場合をノンパラメトリックブートストラップ法というように言ったりする。ただし、母集団の確率分布やモデルを仮定したリサンプリングも可能で、この場合はパラメトリックブートストラップ法となる。いずれにせよ、このような、一見するとエレガントでない泥臭いやり方で母集団の分布や統計量を推定しようとする方法が近年になって増えてきているのは、ロジック的には単純であることに加え、コンピュータ技術の発展で、このような泥臭い反復が簡単にできるようになったという時代背景がある。乱数を用いた試行を繰り返すことにより知りたい値の近似解を求めるモンテカルロ法も同じような時代背景により普及してきたわけである。


このように、リサンプリング統計学やブートストラップ法は、やや「ずるい」やり方である。ずるいやり方であるがゆえに起こりうる問題点がある。それは、当然のことながら、無作為サンプルを母集団にすり替えてしまうところに起因するものである。つまり、そもそもサンプルが母集団の特徴を反映していなかったら、リサンプリングの前提が崩れてしまい、母集団を推測する際のロジックに破たんを来してしまうのである。よって、ブートストラップ法を用いる場合には、このような問題点をよく理解したうえで、無作為抽出を厳密に行い、十分な数のサンプル数を確保することによって、できるだけ母集団に近い特徴をもった無作為サンプルを入手する努力をすることが大切だといえよう。

内生性、内生変数とは何か

経営学のみならず、経済学その他の研究におけるデータ分析で起こりうる問題としてよく指摘されるのが「内生性(endogeneity)」とか「内生変数(endogeneous variable)」である。しかし、この概念は英単語としても難しいし、何を意味しているのか分かりにくい。星野・田中(2016)では、回帰モデルにおいて、独立変数と誤差項が相関している場合に、その独立変数を内生変数というと説明している。反対に、独立変数と誤差項が無相関の場合は、その独立変数を外生変数(exogneous variable)であると説明している。つまり、回帰モデルにおける独立変数は、内生変数か外生変数かどちらかしかない。操作的定義としてはそれでよいが、本来の意味は何だろうか。


辞書的には、内生性とは、それを含むシステムやモデルによって引き起こされる変化とか変数という意味である。つまり、あるシステムやモデルの終点もしくはアウトプットを予測する際に想定される何らかの変数は、本来ならば始点(そこから始まる)になっていないといけないのに、その変数が、システムやモデル内の別の要因とか変数によって影響を受けるわけだから、始点になっていないことを意味する。別の見方をすると、なんらかの物体とかシステムの特徴を調べようとするときに、外から手を加えたときにそれがどうなるかによって調べる方法があるが、本当に外部から手を加えている場合には、それに該当する変数が外生変数となるが、外部から手を加えたと思っていても、実はその力が内部の影響も受けている場合には内生変数になる。どちらのケースも、回帰分析において従属変数を予測するための独立変数としての本来の意図から離れてしまっているので(独立しておらず、別の変数に対する従属変数にもなっている)、何か問題を引き起こすということである。


では、内生性の何が問題なのか。星野・田中による統計学的な説明に従ってみるならば、独立変数が内生変数であると、すなわち内生性があると、回帰分析によって推定された回帰係数に誤差が含まれてしまい、バイアスのかかった推定になってしまうので、正しい推測や仮説検証ができなくなるということである。例えば、推定された回帰係数(独立変数が従属変数にもたらす効果)が、実際に存在する効果よりも過大評価になってしまったり過小評価になってしまったりする。これは研究において間違った結論を導いてしまう可能性を示唆しているため、大きな問題であるわけである。では、具体的にどのようなメカニズムによって、回帰分析結果にバイアスが生じてしまうのだろうか。星野・田中による解説を概観しよう。


もっとも単純な単回帰モデル(y = a + bx + e)を考えてみる。eは標準正規分布に従う誤差項である。y = a + bx + eの両辺の期待値を求めると、E(y) = a + bE(x) となるので、そこからaを求めて元の式に代入すると、y = E(y) - bE(x) + bx + eとなり、移項して整理すると、y - E(y) = b(x - E(x)) + eとなる。両辺に(x- E(x))を掛けてさらに期待値を求めると、 COV(xy) = bVAR(x) + E(xe)となる。ここから、b = COV(xy)/VAR(x) - E(xe)/VAR(x) となる。つまり、bの値は、xとyの共分散をxの分散で除した値と、xとeの共分散をxの分散で除した値で決まる。ここで、xが外生変数の場合には、定義から、xとeの共分散がゼロであるため、xとeの共分散を含む項自体が消えるので、bの値は、xとyの共分散をxの分散で除した値となる。


このようにして導かれるbを求める式は、実際に回帰分析で最小二乗法を用いてbを求める式に一致するので、回帰分析においてb(回帰係数もしくはxの効果)の正確な推定ができると考えられる。これに対して、xが内生変数であるということは、定義から、xとeの共分散はゼロではないということだから、bを導く式に含まれるxとeの共分散が含まれた項(- E(xe)/VAR(x))もゼロではない。その分だけ、bが大きかったり小さかったりする。しかし、実際に最小二乗法を用いた回帰分析で推定されるbはxとyの共分散をxの共分散で除した値のままだから、xとeの共分散を含めたbの本当の値よりも過大であったり過小であったりするわけである。


このように、独立変数が内生変数であったり内生性が存在したりすると、回帰分析において正しいパラメータの推定ができず、正しいモデルの検証ができないので問題である。では、内生性はどのような原因によって生じるのだろうか。星野・田中によれば、典型的な原因が3つほどある。1つ目はモデルや回帰式にとって重要な変数が省略されている場合(省略変数の存在)、2つ目は、独立変数の測定誤差が存在する場合、そして3つ目は、xがyに影響を与えているのと同時に、yがxにも影響を与えているという同時性の存在である。いずれの場合でも、xとeの共分散がゼロにはならないので、推定された係数にバイアスが含まれ、間違った結論を導く危険性が高まってしまう。内生性を防ぐためにはどうすればよいかといえば、1つ目のように省略変数が原因となっているのであれば、省略された変数をすべて回帰式に含めることが必要である。また、2つ目のように測定誤差が原因となっている場合には、測定誤差の少ない、信頼性の高い尺度を用いて変数を測定することが必要である。そして3つ目の同時性が問題であるならば、本来知りたい因果関係とは逆の因果関係があり得ないようにデータの取り方を工夫する(例:実験などでxを外部から操作する、xを先に測定した後、yを測定するなど時間差を設ける)などの対応策があるだろう。