Eviews数据统计及分析教程6章.ppt

  1. 1、本文档共20页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* EViews统计分析基础教程 第6章 基本回归模型的OLS估计 重点内容: 加权最小二乘法(消除异方差) 广义最小二乘法(消除序列相关和异方差) 广义矩估计 一、加权最小二乘法(WLS) 1.异方差问题的解决 当线性回归模型出现异方差时,所得到的估计量是非有效的。用加权最小二乘法(WLS)可以解决异方差问题。 基本思路: 赋予每个观测值残差不同的权数,从而使得回归模型的随机误差项具有同方差性。 一、加权最小二乘法(WLS) 1.异方差问题的解决 基本原理: 设一元线性方程为 yt =β0 +β1xt +μt 如果随机误t差项的方差Var(μt)与解释变量成比例关系,即 Var(μt) = σt2 = f(xt)×σ2 说明随机误差项的方差与解释变量xt之间存在相关性,即存在异方差问题。 一、加权最小二乘法(WLS) 1.异方差问题的解决 消除方法: 用 乘以一元线性方程的两端,得 yt = β0 + β1xt + μt 则,Var( μt) = E( μt)2 = E(μt)2 = σ2 从而,消除了异方差,随机误差项同方差。这时再用普通最小二乘法(OLS)估计其参数,得到有效的β0,β1估计量。 一、加权最小二乘法(WLS) 1.异方差问题的解决 消除方法(EViews操作) (1)用最小二乘法(OLS)估计方程,得到残差序列; (2)根据残差序列计算出加权序列; (3)选择EViews主菜单栏中的“Quick”| “Estimate Equation”选项,弹出下图所示的对话框。 包括两个选项卡: (1)“Specification”选项卡 (2)“Options”选项卡 一、加权最小二乘法(WLS) 1.异方差问题的解决 消除方法(EViews操作) 在“Specification”选项卡的“Equation specification”文本框中输入用OLS(普通最小二乘法)估计的方程。 在“Options”选项卡中,选中“Weighted LS/TSLS”复选框,并在“Weighted”的文本框中输入加权序列的名称,例如输入“w”。 加权序列“w ”用OLS估计模型 时得到的残差序列的绝对值的 倒数序列。填好后再单击 “确定”按钮 二、广义最小二乘法(GLS) 广义最小二乘法(Generalized Least Squared,GLS)常用来对存在序列相关和异方差的模型进行估计。普通最小二乘法(OLS)和加权最小二乘法(WLS)是广义最小二乘法(GLS)的特例。 二、广义最小二乘法(GLS) 基本原理: 通过变换原回归模型,使随机误差项消除自相关,进而利用普通最小二乘法估计回归参数 。 设原回归模型是 yt = ?0 + ?1x1t + ?2 x2t+…+ ?kxkt +ut (t = 1, 2, …, n )(1) 其中,ut具有一阶自回归形式 ut = ? ut-1 + vt (2) vt 满足线性回归模型的基本假定条件,把(2)式代入(1)式中,得 yt = ?0+?1x1t+?2x2t+…+?0xkt+?ut- 1 + vt (3) 二、广义最小二乘法(GLS) 基本原理: 再求模型(3)的滞后1期即(t-1)期的回归模型,并在两侧同乘 ? ? yt-1= ? ?0 +? ?1x1t-1 +??2x2t-1 +…+??kxkt-1+? ut-1 (4) 用(2)式与(4)相减,得 ut-? yt-1 = ?0 (1-?)+?1(x1t-?x1t-1)+ …+?k(xk-1-? xkt-1) + vt (5) 令 yt* = yt - ? yt -1 xjt* = xjt -?xjt -1, j = 1 , 2 , … k (6) ?0* = ?0 (1 - ? ) 则

文档评论(0)

xuefei111 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档