知识3多元回归分析:估计.pptVIP

  1. 1、本文档共85页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
知识3多元回归分析:估计

* 对定理3.2的解释(1):误差项方差 更大的s2意味着更大的OLS估计量方差。 更大的s2意味着方程中的“噪音”越多。 这使得得到自变量对因变量的准确局部效应变得更加困难。 引入更多的解释变量可以减小方差。但这样做不仅不一定可能,而且也不一定总令人满意。 s2 不依赖于样本大小 * 对定理3.2的解释(2):总的样本变异 更大的SSTj意味着更小的估计量方差,反之亦然。 其它条件不变情况下, x的样本方差越大越好。 增加样本方差的一种方法是增加样本容量。 参数方差的这一组成部分依赖于样本容量。 * 对定理3.2的解释(3):多重共线性 更大的Rj2意味着更大的估计量方差。 如果Rj2较大,就说明其它解释变量解释可以解释较大部分的该变量。 当Rj2非常接近1时, xj与其它解释变量高度相关,被称为多重共线性。 严重的多重共线性意味着被估计参数的方差将非常大。 * 对定理3.2的解释(3):多重共线性(续) 多重共线性是一个数据问题 可以通过适当的地舍弃某些变量,或收集更多数据等方法来降低。 注意:虽然某些自变量之间可能高度相关,但与模型中其它参数的估计程度无关。 * 总结 本堂课重要的几点: 高斯-马尔科夫假定 模型过度设定和设定不足的后果 遗漏变量偏差是什么 被估计参数方差的三个组成部分是什么,以及它们如何影响被估计参数方差的大小。 * 多元回归分析:估计(3) Multiple Regression Analysis: Estimation (3) y = b0 + b1x1 + b2x2 + . . . bkxk + u * 本章大纲 使用多元回归的动因 普通最小二乘法的操作和解释 OLS估计量的期望 OLS估计量的方差 OLS的有效性:高斯-马尔可夫定理 * 课堂大纲 误设模型中偏误和方差间的替代关系 估计误差项方差 高斯-马尔可夫定理 * 误设模型中的方差 在考虑一个回归模型中是否该包括一个特定变量的决策中,偏误和方差之间的消长关系是重要的。 假定真实模型是 y = b0 + b1x1 + b2x2 +u, 我们有 * 误设模型中的方差 考虑误设模型是 估计的方差是 当x1和x2不相关时 否则 * 舍弃x2的后果 R12=0 R12≠0 b2=0 两个对b1的估计都是无偏的,方差相同 两个对b1的估计量都是无偏的,舍弃x2使得方差更小 b2≠0 舍弃x2导致对b1的估计量有偏,但方差和从完整模型得到的估计相同 舍弃x2导致对b1的估计量有偏,但其方差变小 * 误设模型中的方差 如果 ,一些计量经济学家建议,将因漏掉x2而导致的偏误的可能大小与方差的降低相比较以决定漏掉该变量是否重要。 现在,我们更喜欢包含x2 ,因为随着样本容量的扩大, 增加x2导致的多重共线性变得不那么重要,但舍弃x2导致的遗漏变量误偏却不一定有任何变化模式。 * 不同情形下估计量的期望和方差 估计量 期望 估计量方差 估计量 期望 估计量方差 估计量 期望 估计量方差 模型设定 不足时 模型过度 设定时 模型设定正确时 * 估计误差项方差 我们希望构造一个s2 的无偏估计量 如果我们知道 u,通过计算 u 2的样本平均可以构造一个s2的无偏估计量 我们观察不到误差项 ui ,所以我们不知道误差项方差s2。 * 估计误差项方差 我们能观察到的是残差项?i 。 我们可以用残差项构造一个误差项方差的估计 df = n – (k + 1), or df = n – k – 1 df (自由度,degrees of freedom) df=观察点个数-被估参数个数 * 估计误差项方差 上式中除以n-k-1是因为残差平方和的期望值是(n-k-1)s2. 为什么自由度是n-k-1 因为推导OLS估计时,加入了k+1个限制条件。也就是说,给定n-k-1个残差,剩余的k+1个残差是知道的,因此自由度是n-k-1 。 定理3.3( s2的无偏估计) 在高斯-马尔可夫假定 MLR.1-5下,我们有 定义术语: s2 正的平方根称为 标准偏差(标准离差)(SD), 正的平方根称为 标准误差(标 准 差)(SE)。 的标准误差是 * 估计误差项方差 * OLS的有效性:高斯-马尔可夫定理 问题:在假定 MLR.1.5下有许多bj的估计量,为什么选OLS? 在假定 MLR.1.5下, OLS是最优线性无偏估计量(BLUE)。 最优(Best):方差最小 线性(Linear):因变量数据的线性函数 无偏(Unbiased):参数估计量的期望等于参数的真

文档评论(0)

rovend + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档