第四章违背经典假设的情况(多重共线性).pptVIP

  • 11
  • 0
  • 约6.23千字
  • 约 38页
  • 2023-11-27 发布于四川
  • 举报

第四章违背经典假设的情况(多重共线性).ppt

3)、第三类方法:减小参数估计量的方差 多重共线性的主要后果是参数估计量具有较大的方差,所以 采取适当方法减小参数估计量的方差,虽然没有消除模型中的多重共线性,但确能消除多重共线性造成的后果。 例如: ①增加样本容量,可使参数估计量的方差减小。 *②岭回归法(Ridge Regression) 70年代发展的岭回归法,以引入偏误为代价减小参数估计量的方差,受到人们的重视。 具体方法是:引入矩阵D,使参数估计量为 其中矩阵D一般选择为主对角阵,即 D=aI a为大于0的常数。 (*) 显然,与未含D的参数B的估计量相比,(*)式的估计量有较小的方差。 逐步回归法 (1)用被解释变量对每一个所考虑的解释变量做简单回归。按可决系数大小给解释变量重要性排序。 (2)以可决系数最大的回归方程为基础,按解释变量重要性大小为顺序逐个引入其余的解释变量。这个过程会出现3种情形。 ①若新变量的引入改进了R2,且回归参数的t检验在统计上也是显著的,则该变量在模型中予以保留。 ②若新变量的引入未能改进R2,且对其他回归参数估计值的t检验也未带来什么影响,则认为该变量是多余的,应该舍弃。 ③若新变量的引入未能改进R2,且显著地影响了其他回归参数估计值的符号与数值,同时本身的回归参数也通不过t检验,这说明出现了严重的多重共线性。舍弃该变量。 6、案例:天津市粮食需求模型(1974-1987) y:粮食销售量(万吨 / 年),x1:市常住人口数(万人), x2:人均收入(元 / 年),x3:肉销售量(万吨 / 年), x4:蛋销售量(万吨 / 年),x5:鱼虾销售量(万吨 / 年)。 把解释变量换成对数形式建模还是存在多重共线性。 y = -134.248 + 0.013x1 + 33.611Lnx2 + 34.363Lnx3 + 27.280Lnx4 – 34.906Lnx5 (-2.0) (0.1) (1.7) (1.8) (1.3) (-1.6) R2 = 0.97, F = 50.2, DW = 1.96, T = 14, t0.05(8) = 2.31, (1974-1987) 用Klein判别法进行分析。首先给出解释变量间的简单相关系数矩阵。 因为其中有两个简单相关系数大于R2 = 0.97, 所以根据Klein判别法,模型中存在严重的多重共线性。 用逐步回归法筛选解释变量。 (1)用每个解释变量分别对被解释变量做简单回归, 以可决系数为标准确定解释变量的重要程度,为解释变量排序。 y = -90.921 + 0.317 x1 (-4.7) (12.2) R2 = 0.92, F = 147.6, T = 14, (1974-1987) y = 99.613 + 0.082 x2 (15.4) (7.6) R2 = 0.83, F = 57.6, T = 14, (1974-1987) y = 74.648 + 4.893 x3 (9.0) (8.7) R2 = 0.86, F = 75.4, T = 14, (1974-1987) y = 108.865 + 5.740 x4 (18.3) (6.8) R2 = 0.80, F = 46.8, T = 14, (1974-1987) y = 113.375 + 3.081 x5 (18.7) (6.0) R2 = 0.75, F = 36.1, T = 14, (1974-1987) 解释变量的重要程度依次为x1, x3, x2, x4, x5 。 (2)以第一个回归方程y = -90.921 + 0.317 x1为基础, 依次引入x3, x2, x4, x5 。首先把x3引入模型, y = -39.795 + 0.212 x1 + 1.909 x3 (-1.6) (4.7) (2.6) R2 = 0.95, F = 11

文档评论(0)

1亿VIP精品文档

相关文档