2017-03-05 17 views
0

従属変数(連続)を単一の独立変数(連続)にモデル化するとき、予測変数は従属変数にプラスの影響を与えます。しかし、複数の独立変数で同じ従属変数をモデリングすると、個別にモデル化したときに正の影響を与えた独立変数は、いくつかの独立変数を持つ最終モデルで負に影響します。これが理由となりますか?助けて。複数ロジスティック回帰モデルで予測変数の影響が逆になる

+2

https://en.wikipedia.org/wiki/Simpson's_paradox –

答えて

2

これは、「独立変数」が実際に相互に関連付けられている場合に発生する可能性があります。簡単な例:

y = x2-x1 
x2 = 2*x1+e 
which means y = x1+e (where e is random noise) 

Y = F(X1、X2)を学ぶことはそう同じ変数に対して負の重みを与える一方で、回帰モデルy = F(X1)私たちにX1のための正の重みを与えるを学びます。

+0

返信ありがとうございました...係数のフィルタが署名するか、それを修正するために何かをしなければならないのですか? – Harish

+0

それは異なります。私はmulticollinearity(https://en.wikipedia.org/wiki/Multicollinearity)をテストし、それが高ければ何かをします(相関の高い変数を除外し、PCAと言うデータを使って変換します...) – slonopotam

関連する問題