説明変数が2つ以上ある回帰モデル(重回帰モデル)を作成するとき、相関が強い説明変数があると、推定結果が不安定になる。
この問題は多重共線性、あるいは英語のmulti-collinearityからマルチコと呼ばれる。
本記事では、多重共線性が生じる原因について、数学的な厳密さを省いて直観的に説明する。
目次
多重共線性が発生する原因
3つの変数を用いて、変数
を予測する重回帰モデルを考える。
すなわち、回帰式は以下で表される。
ただし、は回帰係数、
は定数項である。
次に、データが下図のように与えられたとする。
図より、は
と相関が高い一方で、
は
との相関は非常に低い。
すなわち、の変化は
によってほぼ説明できる。
の変化と
の変化は1:1であるので、回帰係数
は1である。
問題となるのは、相関の高いの回帰係数
である。
の変化を
により打ち消せれば、
の値は何でも良いので、
でも、極端な話、
でも良い。
すなわち、以下の回帰式が得られることもあり得る。
(簡単のため、定数項は無視した)
このような係数が大きい回帰式を用いてしまうと、または
にノイズが入った場合、
の推定値が非常に大きく変化してしまう。
以上が、多重共線性により重回帰モデルの推定結果が不安定になる原因である。
多重共線性への対策
多重共線性への対策として正則化 (regularization) が挙げられる。
正則化とは係数の大きさに対して罰則を加え、係数の絶対値をなるべく小さくする方法である。
すなわち、上記の例では係数をともに0に近づけて、推定結果を安定させることができる。
正則化の方法にはいくつか種類があり、リッジ (Ridge) 回帰、ラッソ (Lasso) 回帰、Elastic Netと呼ばれるモデルが良く用いられる。
これらのモデルはscikit-learnに実装されており、以下の記事で使い方を解説している。
Scikit-learnの正則化付き重回帰モデル - Helve’s Python memo