Eviews数据统计与分析教程章 基本回归模型OLS估计-普通最小二乘法.ppt

Eviews数据统计与分析教程章 基本回归模型OLS估计-普通最小二乘法.ppt

  1. 1、本文档共41页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Eviews数据统计与分析教程章 基本回归模型OLS估计-普通最小二乘法

五、 线性回归模型的检验 4.序列相关检验 (1)杜宾(D .W .—Durbin-Watson)检验法 J. Durbin, G. S. Watson于1950年提出了D .W .检验法。它是通过对残差构成的统计量来判断误差项ut 是否存在自相关。D .W .检验法用来判定一阶序列相关性的存在。 D .W .的统计量为 五、 线性回归模型的检验 4.序列相关检验 (1)杜宾(D .W .—Durbin-Watson)检验法 如果, 0 D .W . dt ,存在一阶正自相关 dt D .W . du ,不能确定是否存在自相关 du D .W . 4-du ,不存在自相关 4-du D .W . 4-dt 不能确定是否存在自相关 4-dt D .W . 4 ,存在一阶负自相关 五、 线性回归模型的检验 4.序列相关检验 (1)杜宾(D .W .—Durbin-Watson)检验法 使用D .W .检验时应注意,因变量的滞后项yt-1不能作为回归模型的解释变量,否则D .W .检验失效。另外,样本容量应足够大,一般情况下,样本数量应在15个以上。 五、 线性回归模型的检验 4.序列相关检验 (2)LM(拉格朗日乘数—Lagrange Multiplier)检验法 LM 检验原假设和备择假设分别为: H0:直到p阶滞后不存在序列相关 H1:存在p阶序列相关 LM的统计量为 LM = n·R2 ~ χ2( p) 其中,n为样本容量,R2为辅助回归模型的拟合优度。LM统计量服从渐进的χ2(p)。在给定显著性水平的情况下,如果LM统计量小于设定在该显著性水平下的临近值,则接受原假设,即直到p阶滞后不存在序列相关。 五、 线性回归模型的检验 4.序列相关检验 序列相关性的后果: 用OLS(最小二乘估计法)得到的估计参数将不再有效; 变量的显著性检验(t检验)失去意义; 模型不再具有良好的统计性质,并且模型失去了预测功能。 五、 线性回归模型的检验 5.多重共线性 方法: (1)相关系数检验法 (2)逐步回归法 * EViews统计分析基础教程 第5章 基本回归模型的OLS估计 重点内容: 普通最小二乘法 线性回归模型的估计 线性回归模型的检验 一、普通最小二乘法(OLS) 1.最小二乘原理 设(x1,y1),(x2,y2),…,(xn,yn)是平面直角坐标系下的一组数据,且x1 x2… xn,如果这组图像接近于一条直线,我们可以确定一条直线y = a + bx ,使得这条直线能反映出该组数据的变化。 如果用不同精度多次观测一个或多个未知量,为了确定各未知量的可靠值,各观测量必须加改正数,使其各改正数的平方乘以观测值的权数的总和为最小。因而称最小二乘法。 一、普通最小二乘法(OLS) 1.最小二乘原理 设双变量的总体回归方程为 yt= B1 + B2xt +μt 样本回归函数为 yt= b1 + b2xt + et 其中,et为残差项, 5-3式为估计方程,b1 和b2分别为B1和B2的估计量, 因而 e = 实际的yt –估计的yt 一、普通最小二乘法(OLS) 1.最小二乘原理 估计总体回归函数的最优方法是选择B1和B2的估计量b1 ,b2,使得残差et尽可能达到最小。 用公式表达即为 总之,最小二乘原理就是选择样本回归函数使得y的估计值与真实值之差的平方和最小。 一、普通最小二乘法(OLS) 2.方程对象 选择工作文件窗口工具栏中的“Object”| “New Object”| “Equation”选项,在下图所示的对话框中输入方程变量。 一、普通最小二乘法(OLS) 2.方程对象 EViews5.1提供了8种估计方法: “LS”为最小二乘法; “TSLS”为两阶段最小二乘法; “GMM”为广义矩法; “ARCH”为自回归条件异方差; “BINARY”为二元选择模型,其中包括Logit模型、Probit模型和极端值模型; “ORDERED”为有序选择模型; “CENSORED”截取回归模型; “COUNT”为计数模型。 二、一元线性回归模型 1.模型设定 一元线性回归模型的形式为 yi = ?0 + ?1 xi + ui (i=1,2,…,n) 其中,y为被解释变量,也被称为因变量;x为解释变量或自变量;u是随机误差项(random error term),也被称为误差项或扰动项,它表示除了x之外影响y的因

文档评论(0)

laolingdao1a + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档