- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
§2.2一元线性回归模型的基本假设 一、对模型设定的假设 二、对解释变量的假设 三、对随机干扰项的假设 用样本去估计总体回归函数,总要使用特定的方法,而任何估 计参数的方法都需要有一定的前提条件——假定条件 为什么要作基本假定? ●只有具备一定的假定条件,所作出的估计才具有良好的统计性质。 ●模型中有随机扰动项,估计的参数是随机变量,显然参数估计值的分布与扰动项的分布有关,只有对随机扰动的分布作出假定,才能比较方便地确定所估计参数的分布性质,也才可能进行假设检验和区间估计等统计推断。 假定分为:◆对模型和变量的假定◆对随机扰动项的假定 一、对模型设定的假设 假设一:回归模型是正确设定的 模型选择了正确的变量 模型选择了正确的函数形式 也被称为模型没有设定偏误(specification error) 二、对解释变量的假设 假设二:解释变量X是确定性变量,不是随机变量,在重复抽样中取固定值。 假设三:解释变量X在所抽取的样本中具有变异性,并且随着样本容量的无限增加,解释变量X的样本方差趋于一个非零的有限常数。即 旨在排除时间序列数据出现持续上升或下降的变量作为解释变量,因为这类数据不仅使大样本统计推断变得无效,而且往往产生所谓的伪回归问题(spurious regression problem)。 三、对随机干扰项的假设 假设四、随机误差项?具有零均值、同方差和不序列相关性: E(?i)=0 i=1,2, …,n Var (?i)=??2 i=1,2, …,n Cov(?i, ?j)=0 i≠j i,j= 1,2, …,n 假设五、随机误差项?与解释变量X之间不相关: Cov(Xi, ?i)=0 i=1,2, …,n 假设六、?服从零均值、同方差、零协方差的正态分布 ?i~N(0, ??2 ) i=1,2, …,n 以上假设也称为线性回归模型的经典假设或高斯(Gauss)假设,满足该假设的线性回归模型,也称为经典线性回归模型(Classical Linear Regression Model, CLRM)。 前4个假设称为高斯 – 马尔可夫假设 随机误差项方差的估计量 最小二乘参数估计量的离差形式(deviation form) 二、参数估计的最大或然法(ML) 最大或然法(Maximum Likelihood,简称ML),也称最大似然法,是不同于最小二乘法的另一种参数估计方法,是从最大或然原理出发发展起来的其它估计方法的基础。 基本原理: 对于最大或然法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大。 极大似然思想 有两个射手,一人的命中率为0.9,另一人的命中率为0.1,现在他们中的一个向目标射击了一发,结果命中了,估计是谁射击的? 但是,随机误差项的方差的估计量是不同的。 三、参数估计的矩法(MM) 什么是矩? 描述随机变量概率分布的宏观特性的一类常用的量。设X为一随机变量,F(x)是它的分布函数。对于任一正整数k, 的E( )称为X 的k阶原点矩。 矩估计的基本原理:用相应的样本矩来估计总体矩。 假设已给出的两个基本总体矩条件: E(?i)=0 Cov(Xi, ?i)= E(Xi?i)= 0 相应的样本矩条件 解与普通最小二乘法及极大似然法的结果相同。 四、最小二乘估计量的性质 当模型参数估计出后,需考虑参数估计值的精度,即是否能代表总体参数的真值,或者说需考察参数估计量的统计性质。 2、无偏性:最小二乘参数估计量的均值等于总体回归参数真值。 (2)证明最小方差性 4、结论 普通最小二乘参数估计量具有线性性、无偏性、最小方差性等优良性质。 具有这些优良性质的估计量又称为最佳线性无偏估计量,即BLUE估计量(the Best Linear Unbiased Estimators)。 显然这些优良的性质依赖于对模型的基本假设。 可选择性学习 补充内容 * * X1 X Xn X2 Y +?i -?i PRF:E(Y|Xi)= ?0+?1Xi 模型的一般形式: 基本假定: Yi= ?0+?1Xi+?i i=1,2,···,n Cov(Xi, ?i)=0 ?i~N(0, ?2
文档评论(0)