多元线性回归模型:估计及t检验.docVIP

  • 55
  • 0
  • 约4.44千字
  • 约 6页
  • 2019-07-01 发布于广东
  • 举报
多元线性回归:估计方法及 回归系数显著性检验 线性回归模型的基本假设: i = 1 , 2 , … , n 在普通最小二乘法中,为保证参数估计量具有良好的性质,通常对模型提出若干基本假设: 1.解释变量间不完全相关; 2.随机误差项具有0均值和同方差。即: , i = 1 , 2 , … , n 3.不同时点的随机误差项互不相关(序列不相关),即 s ≠ 0, i = 1 , 2 , … , n 4.随机误差项与解释变量之间互不相关。即 j = 1 , 2 , … , k , i = 1 , 2 , … , n 5.随机误差项服从0均值、同方差的正态分布。即 ~ i = 1 , 2 , … , n 当模型满足假设1 ~ 4时,将回归模型称为“标准回归模型”,当模型满足假设1 ~ 5时,将回归模型称为“标准正态回归模型”。如果实际模型满足不了这些假设,普通最小二乘法就不再适用,而要发展其他方法来估计模型。 广义(加权)最小二乘估计(generalized least squares) 当假设2和3不满足时,即随机扰动项存在异方差,i = 1 , 2 , … , n,且随机扰动项序列相关, i = 1 , 2 , … , n,j=1 , 2 , … , n ,此时OLS 估计仍然是无偏且一致的,但不是有效估计。 线性回归的矩阵表示: y = Xβ + u (1) 则上述两个条件等价为: Var(u)== ? ? 2 I 对于正定矩阵 QUOTE ? ? 存在矩阵M,使得 。在方程(1)两边同时左乘M,得到转换后的新模型:,令,即 (2) 新的随机误差项的协方差矩阵为,显然是同方差、无序列相关的。目标函数,即残差平方和为:。目标函数是残差向量的加权平方和,而权数矩阵则是u的协方差矩阵的逆矩阵(因此,广义最小二乘估计法也称为加权最小二乘估计法)。而新模型的OLS估计量则是原模型的GLS估计量。 Var( QUOTE GLS)= (X*’X*)-1 =(X’M’MX)-1=(X’ QUOTE ? ? -1X)-1( Var( QUOTE OLS)= (X’X)-1X’ QUOTE ? ?X(X’X)-1 )。 由于变换后的模型(2)满足经典OLS 的所有假设,所以根据高斯-马科夫定理可知, GLS 估计量是BLUE (Best Linear Unbiased Estimator)。 虽然从理论上讲,GLS比OLS有效,但由于多数情况下残差序列的协方差矩阵未知,当我们用代替GLS 估计式中的 QUOTE ? ?以获得估计时,估计量虽然仍旧是一致的,但却不是最好线性无偏估计。而且,也很难推导出估计量的小样本性质。继而用White(1980)的异方差一致协方差估计方法(残差序列有未知形式的异方差,但序列不相关)和Newey-West(1987) 的异方差--自相关一致协方差估计方法(有未知形式的异方差且自相关存在)得到修正的Var( QUOTE OLS)是相对较好的选择。(使用White或Newey-West异方差一致协方差估计不会改变参数的点估计,只改变参数估计的标准差。) White 协方差矩阵公式为: 其中n是观测值数,k是回归变量数,ui是最小二乘残差。 Newey-West协方差矩阵公式为: 其中, q是滞后截尾,一个用于评价OLS残差 ui的动态的自相关数目的参数。。 二阶段最小二乘法 (TSLS,Two stage least squares,Sargan(1958)) 当假设4不成立时,即随机误差项与某些解释变量相关时,OLS和广义LS都是有偏的和不一致的。 有几种情况使右边某些解释变量与误差项相关。如:在方程右边有内生决定变量,或右边变量具有测量误差。为简化起见,我们称与残差相关的变量为内生变量,与残差不相关的变量为外生变量。 解决解释变量与随机误差项相关的方法是使用工具变量回归。就是要找到一组变量满足下面两个条件: (1)与内生变量相关; (2)与残差不相关; 这些变量称为工具变量。用这些工具变量来消除右边解释变量与扰动项之间的相关性。考虑工具变量时,应注意以下问题: 1)使用TSLS估计,方程说明必需满足识别的阶条件,即工具变量的个数至少与方程的系数一样多(D

文档评论(0)

1亿VIP精品文档

相关文档