重回帰分析

提供: miniwiki
2018/8/19/ (日) 17:42時点におけるAdmin (トーク | 投稿記録)による版 (1版 をインポートしました)
(差分) ← 古い版 | 最新版 (差分) | 新しい版 → (差分)
移動先:案内検索

重回帰分析(じゅうかいきぶんせき)は、多変量解析の一つ。回帰分析において独立変数が2つ以上(2次元以上)のもの。独立変数が1つのものを単回帰分析という。

一般的によく使われている最小二乗法一般化線形モデルの重回帰は、数学的には線形分析の一種であり、分散分析などと数学的に類似している。適切な変数を複数選択することで、計算しやすく誤差の少ない予測式を作ることができる。重回帰モデルの各説明変数の係数を偏回帰係数という。目的変数への影響度は偏回帰係数は示さないが標準化偏回帰係数は目的係数への影響度を示す。下記の関係式が知られている。

[math]SPRC = PRC \times \frac{SDEV}{SDRV}[/math]

変数名 意味
[math]SPRC[/math] 標準化偏回帰係数[1]
[math]PRC[/math] 偏回帰係数[2]
[math]SDEV[/math] 説明変数の標準偏差[3]
[math]SDRV[/math] 目的変数の標準偏差[4]

中学生を対象に調査を行いその結果を重回帰分析したところ下の式が得られたとする。

[math]t_C \times 3 + t_{SJ} \times 5 + 20 = n[/math]

変数名 意味
[math]t_C[/math] 中学で勉強した時間数
[math]t_{SJ}[/math] 小学生の時代の塾の学習時間数
[math]n[/math] 知っている英単語の数

この場合、Aさんが中学で[math]100[/math]時間、小学生時代[math]20[/math]時間勉強していたら [math]100 \times 3 + 20 \times 5 + 20 = 420[/math] 語を知っているという計算になる。中学で1時間勉強すると平均的には3単語を覚えているという解釈ができる。

ここでは[math]\times 3[/math][math]\times 5[/math]という数値を重回帰分析で計算・算出するが、あくまで平均的な値であり個々のサンプルにおいてその通りに一致するとは限らない。例えば、Aさんの英単語数は[math]420[/math]語ではなく、実際には[math]450[/math]語かもしれない。全体の平均を取ると、3や5という値を取ると全体が最もうまく説明できデータによく適合するということから出てきた数値になる。

また英単語数を決めるのが勉強時間だという関係は、分析者が自分で決めるため絶対的なものではない。あくまで勉強時間が独立変数(説明変数)だと仮定した上で分析している。そのため、予測を行うことはできてもその方向に因果関係があることは保証されない。

独立変数が二値の場合

性別や民族といった名義尺度データを説明変数に用いたい場合は、ダミー変数を導入して重回帰分析を行うことになる。日本国内で見かける数量化I類は、実質的にはこれと同じ分析である。

ダミー変数は通常、条件ごとに説明変数を作り[math]0[/math][math]1[/math]を持つデータを設定して、分析する。その際、重回帰では一つは回帰式に含めない(多重共線性を避けるためである)。

信号の色による車の通過速度の違いを例に取ると、

[math]\overline{v} = 50 \times \delta_B + 15 \times \delta_Y + 0[/math]

変数 意味
[math]\overline{v}[/math] 信号機のある交差点を通過する車の平均速度 ([math]km/h[/math])
[math]\delta_B[/math] 信号が青なら[math]1[/math]、さもなくば[math]0[/math]
[math]\delta_Y[/math] 信号が黄色なら[math]1[/math]、さもなくば[math]0[/math]

という式が得られうる。

この場合、青でも黄色でもない条件のデータは、赤になり、計算値は定数の0になる。つまり、赤なら平均速度[math]0 km/h[/math]となる。解釈としては交差点を抜ける車はいないという意味になる。また、青の場合なら平均速度は[math]50 km/h[/math]と推定されたことになる。

男女の体重の予測では、

[math]w = 12 \times \delta_m + 50[/math]

変数 意味
[math]w[/math] 体重 ([math]kg[/math])
[math]\delta_m[/math] 男なら[math]1[/math]、さもなくば[math]0[/math]

という予測式が得られたら、男でない「女」の平均体重は[math]50 kg[/math]と計算される。男性なら[math]12 kg[/math]多く、[math]62 kg[/math]が平均になるという意味になる。ちなみにこれは同じデータを男女別に単純平均したものと一致する。

性別、学年など複数の変数を組み合わせて、分析することもできる。

[math]w = \alpha \times \delta_m + \beta \times G[/math]

変数 意味
[math]w[/math] 体重 ([math]kg[/math])
[math]\delta_m[/math] 男なら[math]1[/math]、さもなくば[math]0[/math]
[math]G[/math] 学年

また、「男性で1年生なら[math]1[/math]」というように細かく分けてダミー変数を増やして重回帰を行うことも可能ではある。ただし、説明変数の数が大きく増すので、連関の強いダミー変数同士で多重共線性の問題が生じやすいこと、十分な信頼性を確保するためにはサンプル数がかなり求められることなどを考えると、実用性に乏しい。

多重共線性

そのため、説明変数同士が関連性の高い場合、一般化線形モデルでは多重共線性と呼ばれる状態になるため、係数が直感に反する値になることがある。

例えば、小学校での定期テスト得点から重回帰で分析する場合、理科の点数を従属変数に、数学と国語とを説明変数にした場合、数学が増えると理科の点数が増え、国語の点数が高ければ理科の点数が減るといった意味の係数が出ることがある。これは数学と国語との点数の間に強い相関がある(一般に、どちらの成績も学習習慣や知能の影響を強く受ける)ことで起こりうる。この場合のように説明変数間の相関が高いと係数が不安定になりやすい。

実務的対応としては、一方を除いて分析するのが最も手軽である。また、数学と国語の平均点と、数学と国語の得点の差というように和と差に数字を加工すると、この2つは相関がたいてい低く、かつ解釈しやすい。数学と国語の得点の差は、数学の方が高い生徒の方が理科の点数が高い傾向があるというように理解できるためである。ただし、このような正の相関を持つ変数同士の差得点は元の変数よりも信頼性が落ちるので、サンプル数を増やすなどの対応が求められる。

また、適切な予測力を実質的には持たない変数であっても、説明変数に加えると予測式自体の説明力 (R2) は上がることが多い。そのため、単なるR2ではなく、その分を調整した修正R2を参照する、ステップワイズ法等で投入する説明変数を取捨選択する、AICを見るなどの対応が求められる。

ソフトウェア

ほぼ全ての統計パッケージで重回帰分析は実行できる。

関連する分析手法

  • 回帰分析
  • 分散分析 - 重回帰モデルの有意性の検定に用いられる
  • 数量化I類 - ダミー変数を用いた回帰分析の別名
  • ロジスティック回帰 - 目的変数は名義尺度、ロジスティック関数に基づく予測
  • プロビット分析 - 目的変数は名義尺度、正規累積関数に基づく予測
  • 正準相関分析 - 変数群の一方が一変数のみであれば、重回帰分析と同様
  • パス解析 - 古典的なパス解析は、複雑なモデルについて重回帰分析の繰り返しから個々の係数を推定
  • 共分散構造分析(構造方程式モデリング) - 重回帰モデルに対し、適合度統計量等の算出が可能

脚注

  1. : standardised partial regression coefficient
  2. : partial regression coefficient
  3. : standard deviation of explanatory variable
  4. : standard deviation of response variable