Eviews数据统计与分析教程6章.pptVIP

  • 1
  • 0
  • 约 20页
  • 2017-05-21 发布于四川
  • 举报
* EViews统计分析基础教程 第6章 基本回归模型的OLS估计 重点内容: 加权最小二乘法(消除异方差) 广义最小二乘法(消除序列相关和异方差) 广义矩估计 一、加权最小二乘法(WLS) 1.异方差问题的解决 当线性回归模型出现异方差时,所得到的估计量是非有效的。用加权最小二乘法(WLS)可以解决异方差问题。 基本思路: 赋予每个观测值残差不同的权数,从而使得回归模型的随机误差项具有同方差性。 一、加权最小二乘法(WLS) 1.异方差问题的解决 基本原理: 设一元线性方程为 yt =β0 +β1xt +μt 如果随机误t差项的方差Var(μt)与解释变量成比例关系,即 Var(μt) = σt2 = f(xt)×σ2 说明随机误差项的方差与解释变量xt之间存在相关性,即存在异方差问题。 一、加权最小二乘法(WLS) 1.异方差问题的解决 消除方法: 用 乘以一元线性方程的两端,得 yt = β0 + β1xt + μt 则,Var( μt) = E( μt)2 = E(μt)2 = σ2 从而,消除了异方差,随机误差项同方差。这时再用普通最小二乘法(OLS)估计其参数,得到有效的β0,β1估计量。

文档评论(0)

1亿VIP精品文档

相关文档