回帰分析もロジスティック回帰分析も一般化線形モデルに含まれる理由の直感的理解

回帰分析とロジスティック回帰分析は、一見すると式の形や、結果のグラフの形状から見て、全く異なる分析のように思われる。しかし、両方ともに、一般化線形モデルに含まれる。特に、ロジスティック回帰分析は、線形モデルなのかという疑問が出てくる。なぜ、この2つの異なる回帰分析と、同じ一般化線形モデルの一員として括れるのか。これについては、西内(2014)の説明が助けになる。これを直感的に理解するには、ロジスティック回帰分析の理解を深めておくのがよいだろう。


西内によれば、ロジスティック回帰分析では「オッズ」および「オッズ比」という概念が重要となる。オッズとは、ある状況をとる確率に対して、「確率/(1-確率)」で表される数字である。オッズは、該当者の割合が低い特定の結果変数(質的変数)について、その確率を左右する可能性のある要因を調査するときに重要となってくる。例えば、同じような条件の時に特定の状態になったケースとならなかったケースを集める「ケース・コントロール調査」では、1つの条件のときのオッズと、他の条件のときのオッズを比べる「オッズ比」を計算することによって、条件間で確率が何倍違うのかを把握することができる。ロジスティック回帰分析の場合、結果変数が0, 1の2値であるから、0になる確率、1になる確率が、説明変数によってどう変わるかを調べるため、このオッズ比の考え方が役に立つ。具体的に言えば、説明変数が1単位増えると1になる確率が何倍になるかを推定する。


さて、ロジスティック回帰分析の結果変数は2値で、式の推定値は0から1の間の確率になるので、回帰分析のような結果変数が連続変数のような計算方法が成り立たない。しかし、ロジスティック回帰分析の結果変数に対数オッズを掛けることで、結果変数が回帰分析のような連続変数になってしまう。例えば、ロジスティック回帰分析の結果変数の最小値は0であるが、この場合のオッズは (0 / ( 1- 0) = 0)であり、これの対数をとる(ネイピア数を底にしたもの)と、マイナス無限大になる。つまり、結果変数の推定値が0に近づくほど、対数オッズに変換したものはマイナス無限大に近づく。一方、ロジスティック回帰分析の結果変数の最小値は1であるが、この時のオッズは無限大となり、これの対数をとると無限大となる。つまり、結果変数の推定値が1に近づくほど、対数オッズに変換したものは無限大に近づく。このことによって、ロジスティック回帰分析の結果変数が、対数オッズ変換によって回帰分析の結果変数のように連続変数に変換された。


結果変数が連続変数であれば、実質的には回帰分析と同じになるので、回帰分析と類似の方法で回帰係数を計算することができる。そのようにして回帰係数を推定したら、今度はそれを解釈可能な形に再変換すればよい。具体的には、ネイピア数の回帰係数乗を計算すればよい。そうして変換した値は、説明変数が1増えると、結果変数が1になる確率が約何倍になるかという近似値(オッズ比)として示されるのである。このような説明により、回帰分析も、ロジスティック回帰分析も、基本的に一般化線形モデルに含まれるものであるということを直感的に理解することができるのである。