重回帰分析における相対的重みづけ分析(relative weight analysis)の直感的理解

経営学や組織行動などの研究で最も頻繁に使われる統計分析の1つが、重回帰分析である。重回帰分析では1つの目的変数を複数の説明変数で予測しようとする。この重回帰分析の際にしばしば生じる研究上の関心は、複数の予測変数の相対的な重要度(relative importance)である。例えば、職場における従業員の総合的な満足度を、仕事への満足度、人間関係の満足度、給与の満足度の3つで予測するとしよう。その際、ただこの3つで予測できるか否かを検証するだけでなく、研究上の関心としては、この3つのどれが最も総合的な満足度に影響を与えているか(関連が深いか、予測力があるか)というようなものがあるだろう。つまり、3つの満足度が総合的な満足度を予測する際の相対的重要性である。そしてこの問題への答えは、統計学的には意外と難しいのである。今回は、そのような統計学的な困難性を手品のような方法で上手にクリアすることで、説明変数間の相対的な重要性の判断を可能にする相対的重みづけ分析もしくは相対ウェイト分析(relative weight analysis)を紹介する。骨子はTonidandel & LeBreton (2011) で説明されている。


上記の問題を、目的変数 y を、3つの説明変数 x1, x2, x3 で予測するとした場合に、相対的な説明力の高さで順位付けしたいとしよう。その場合、問題を以下のように言い換えよう。「x1, x2, x3 のそれぞれが目的変数 y の分散を説明する度合いはどれくらいか。」もし、x1, x2, x3 がそれぞれ無相関である場合、この問題への答えは簡単である。重回帰分析を行った場合の x1, x2, x3 それぞれに対する標準偏回帰係数 β の値が、x1, x2, x3 それぞれの相対的重要度に結びついているのである。もう少し説明すると、x1, x2, x3 それぞれの説明変数に対する標準偏回帰係数は、それぞれの説明変数と目的変数 y との相関係数に他ならず、その二乗をすべて足し合わせれば、重回帰係数の決定係数r2と一致する。決定係数とは、重回帰式に含まれた説明変数が目的変数の分散を説明する度合いだから、その量を x1, x2, x3 に割り振ることができる。 x1, x2, x3 に割り振られた量が、決定係数への貢献度、すなわち目的変数を説明する際の貢献度を意味する。よって、相対的重要度だと解釈して問題はないということになる。


しかしアンケート調査などによる現実のデータにおいては、実験などで人為的に説明変数間を無相関に調整する場合などを除くと、説明変数どうしに相関関係がある場合が普通である。その場合は、話が難しくなる。つまり、 x1, x2, x3 の標準偏回帰係数が単純に相対的重要度を示しているとは言えないのである。この場合、x1, x2, x3の標準偏回帰係数の二乗を足し合わせても決定係数とは一致しないので、単純に目的変数の分散をx1, x2, x3に割り振れない。また、x1, x2, x3 のそれぞれの標準偏回帰係数は、他の変数と目的関数との関連性の影響を受ける。偏回帰係数は、「他の変数が一定で変化しないと仮定した場合」に、当該説明変数 x を一単位増加させた場合に y がどれくらい増加(減少)するかを意味している。なので、他の変数の状況によっては、単純相関で x1 と y とに正の相関があっても、重回帰分析の偏回帰係数がマイナスになることさえある。さらに、説明変数間に相関があるということは、y の分散を説明する部分がそれらの説明変数間でオーバーラップしていることも意味しており、それをどう各説明変数に割り当てればよいのかは簡単にはわからない。


上記のような理由で、「相対的重要度を識別する際の問題はかなり厄介で、困ったことになったぞ」ということになるのであるが、様々な試みが検討された結果、現在では、この問題を解決し、説明変数の相対的重要度をわりと正確に推定できる方法が2つあることが明らかになってきた。その2つの方法が、「ドミナンス分析(dominance analysis)」と、「相対的重みづけ分析(relative weight analysis)」である。ドミナンス分析の説明は別の機会に譲るとして、今回は、相対的重みづけ分析について説明する。こちらは、なるほどと唸ってしまうような「ずるい」やりかたで、説明変数 y が説明される分散を、論理的な破たんを犯すことなく、上手に x1, x2, x3 に割り振ってしまうという、手品のような手法なのである。その手品のタネは、説明変数 x1, x2, x3 と目的変数 y の間に、新たに作成した架空の変数 z1, z2, z3 を挟みこむことで説明変数間の相関に伴う問題を消し去ってしまおうというものである。 z1, z2, z3 が無相関であるところがミソで、これが挟まると驚くように困難な問題が解消されてしまうのである。


具体的には、相対的重みづけ分析(相対ウェイト分析)は以下の手順で行う。まず、 x1, x2, x3 に類似しているが、それぞれが無相関な z1, z2, z3 を作り出す。別の言い方をすれば、お互いに相関している x1, x2, x3 を、お互いに相関しない z1, z2, z3 に変換する。次に、y を z1, z2, z3 を用いて重回帰分析を行う。そうすると、 先に説明したとおり、z1, z2, z3 の標準偏回帰係数の二乗が、yを説明する分散の割り振りに相当するので、相対的な重要性であると簡単に解釈できる。つまり、yに対する z1, z2, z3 の相対的重要性(重みづけ)は無相関であるがゆえに簡単に推定できる。ただし、知りたいのは z1, z2, z3 の相対的重要性ではなく、x1, x2, x3 の相対的重要性である。そこで次のステップとして、x1, x2, x3 のそれぞれを目的変数として、 z1, z2, z3 を用いて重回帰分析を行う。そうすると、例えば、x1を予測するうえでの z1, z2, z3 の相対的重要性は簡単に求まる。先と同じように、標準偏回帰係数の二乗を用いればよい。


さて、ここまでくればあとは簡単である。z1, z2, z3 は、y を説明する上での相対的重要性の情報を持っており、なおかつ、x1, x2, x3 を説明する上での相対的重要性の情報を持っている。よって、これらの情報を組み合わせれば、y を説明する上での x1, x2, x3 の相対的重要性が推定できる。具体的にいうと、x1 の y に対する相対的重み(相対ウェイト、相対的重要性)は、 z1, z2, z3 の相対的重要性について、それぞれのx1に対する相対的重要性情報を用いた加重平均をとるような考え方をすればわかる。相対的重みづけ分析を行うことによって、y を説明する分散がいったん z1, z2, z3 に割り振られ、その割り振られた分散は、さらに x1, x2, x3 に割り振られた。別の言い方をすれば、z1, z2, z3 を仲介することで、y を説明する分散を、 x1, x2, x3 に上手に割り振ることができたのである。もちろん、この分析は万能といわけではないので、参考文献等によってその限界点なども理解されたい。

文献

Tonidandel, S., & LeBreton, J. M. (2011). Relative importance analysis: A useful supplement to regression analysis. Journal of Business and Psychology, 26(1), 1-9.