利用变量间的关系进行预测课件.PPTVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
* 奥克姆剃刀 (Occam’s Razor) 模型选择可遵循奥克姆剃刀的基本原理 最好的科学模型往往最简单,且能解释所观察到的实事 对于线性模型来说,奥克姆剃刀可表示成简约原则 一个模型应包括拟合数据所必需的最少变量 如果一个模型只包含数据拟合所必需的变量,这个模型就称为简约模型(parsimonious model) 实际中的许多多元回归模型都是对简约模型的扩展 * 一元线性回归模型 描述因变量 y 如何依赖于自变量 x 和误差项? 的方程称为回归模型 一元线性回归模型可表示为 y = b0 + b1 x + e y 是 x 的线性函数(部分)加上误差项 线性部分反映了由于 x 的变化而引起的 y 的变化 误差项 ? 是随机变量 反映了除 x 和 y 之间的线性关系之外的随机因素对 y 的影响 是不能由 x 和 y 之间的线性关系所解释的变异性 ?0 和 ?1 称为模型的参数 * 回归模型中为什么包含误差项? 理由1:理论的含糊性。即使有决定y的行为的理论,而且常常是不完全的,影响y的变量不是无所知就是知而不确,因此不妨设?作为模型所排除或忽略的全部变量的替代变量 误差项?是未包括在模型中而又影响着y的全部变量的替代物,但为什么不把这些变量引进到模型中来?换句话说,为什么不构造一个含有尽可能多个变量的复回归模型?古扎拉蒂在《计量经济学》一书中列出了7点理由 * 回归模型中为什么包含误差项? 理由2:数据的欠缺。即使我们明知被忽略变量中的一些变量,并因而考虑用一个复回归而不是一个简单回归,我们却不一定能得到关于这些变量的数量信息 理由3:核心变量与周边变量。影响y的全部或其中的一些变量,合起来的影响如此之小,充其量是一种非系统的或随机的影响。从实际考虑以及从成本上计算,把它们一一引入模型是划不来的。所以人们希望把它们的联合效应当作一个随机变量来看待 * 回归模型中为什么包含误差项? 理由4:人类行为的内在随机性。即使我们成功地把所有有关的变量都引进到模型中来,在个别的y中仍不免有一些“内在”的随机性,无论我们花了多少力气都解释不了的。随机项?也许能很好地反映这种随机性 理由5:糟糕的替代变量。虽然经典回归模型假定变量y和x能准确地观测,但实际上数据会受到测量误差的扰乱。由于这些变量不可直接观测,故实际上我们用替代变量。这时误差项?又可以用来代表测量误差 * 回归模型中为什么包含误差项? 理由6:节省原则。我们想保持一个尽可能简单的回归模型。如果我们能用两个或三个变量就“基本上”解释了y的行为,并且如果我们的理论完善或扎实的程度还没有达到足以提出可包含进来的其他变量,那么为什么要引进更多的变量?让?去代表所有的其他变量好了。当然,我们不应该只为了保持回归模型简单而排除有关的和重要的变量 * 回归模型中为什么包含误差项? 理由7:错误的函数形式。即使我们有了解释一种现象的在理论上正确的变量,并且我们能获得这些变量的数据,我们却常常不知道回归子(因变量)和回归元(自变量)之间的函数形式是什么形式。在双变量模型中,人们往往能从散点图来判断关系式的函数形式,而在多变量回归模型中,由于无法从图形上想像一个多维的散点图,要决定适当的函数形式就不容易 * 一元线性回归模型 (基本假定) 因变量x与自变量y之间具有线性关系 在重复抽样中,自变量x的取值是固定的,即假定x是非随机的 误差项ε是一个期望值为0的随机变量,即E(ε)=0。对于一个给定的 x 值,y 的期望值为E ( y ) =? 0+ ? 1 x 对于所有的 x 值,ε的方差σ2 都相同且相互独立 误差项ε是一个服从正态分布的随机变量, 即ε ~ N(0 ,σ2 ) 独立性意味着对于一个特定的 x 值,它所对应的ε与其他 x 值所对应的ε不相关 对于一个特定的 x 值,它所对应的 y 值与其他 x 所对应的 y 值也不相关 * 估计的回归方程 (estimated regression equation) 一元线性回归中估计的回归方程为 用样本统计量 和 代替回归方程中的未知参数 和 ,就得到了估计的回归方程 总体回归参数 和 是未知的,必须利用样本数据去估计 其中: 是估计的回归直线在 y 轴上的截距, 是直线的斜率,它表示对于一个给定的 x 的值, 是 y 的估计值,也表示 x 每变动一个单位时, y 的平均变动值 * 参数的最小二乘估计 (method of least squares ) 德国科学家Karl Gauss(1777—1855)提出用最小化图中垂直方向的误差平方和来估计参数 使因变量的观察值与估计值之间的误差平方和达到最小来求得 和 的方法。即

文档评论(0)

swj + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档