【#文档大全网# 导语】以下是®文档大全网的小编为您整理的《回归模型常数项的解释》,欢迎阅读!
我们用最简单的线性模型来说明这个问题 -- 常数项如何产生? y = xb + u (先假设此处无常数项)
其中y是n x 1的向量,x是 n x k的矩阵,b是 k x 1的向量,u是n x 1的向量。 case 1 -- unobserved effects
能够解释y的数据分为两部分:可观察到的和不可观察到的(或没数据的)。
所有可观察到的变量的数据我们放入x中,其他不可观察和无数据的放入u,而这些不可观察到的影响又分为两部分 u = a1 + v,其中 a1 是一个常数,这部分影响是固定的,对所有样本都一样,v是一个n x 1的随机影响,对各个样本不同。于是我们可以把上式重新写为 y = a1 + xb + v
case 2 -- the trap of dummy variables ( or multicolinearity issue)
但是故事到这里还没结束,因为还有一种可能会产生常数项 -- x中的多重共线性。假设x中含有一个(或多个)虚拟变量,比如性别,female =1 if female, =0 if male; male =1 if male, =0 if female。那么你在写模型时就有两种形式,要么写成 y = female x b1 + male x b2 + u, 要么写成 y = d1 + female x d2 +u。一般情况下我们都会选择用后者,也就是丢掉一个虚拟变量,留下我们更关心的那个,因为我们更关心特殊性,比如女性,黑人,少数民族,低收入阶层,某季节等。切忌写成y = a + female x b1 + male x b2 + u,因为这样就产生了多重共线性 -- a + female x b1 + male x b2 = 0 导致逆矩阵不可求。
综上,我们把第一种情况中的 a1 和第二种情况中的 b2 (第二种情况可能有很多参数加,不只是b2)到一起,这样就有了最终带有常数项的模型, y = a + xb + v
本文来源:https://www.wddqxz.cn/afa703ed0ba1284ac850ad02de80d4d8d15a01ca.html