2一元线性归模型.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2一元线性归模型

第二章 一元线性回归模型 第一节 回归模型概述 第二节 参数的最小二乘估计 第三节 最小二乘估计量的统计性质 第四节 一元线性回归模型的统计检验 第五节 一元线性回归模型的预测 第六节 一元线性回归模型案例分析 第二节 参数的最小二乘估计 一、经典线性回归模型:OLS基本假定 二、普通最小二乘法(OLS) 三、例题示范 一、经典线性回归模型:OLS基本假定 1.零均值假定:随机扰动项可正可负,可相互抵消 2.同方差假定:各次观察值中ui具有相同的方差 3.无序列相关假定:随机扰动项相互独立 4.解释变量与随机扰动项不相关假定: 5.随机扰动项服从正态分布假定 1、 E(ui)=0 2、 Var(ui)=σ2 3、Cov(ui,uj)=0 4、Cov(ui,Xi)=0 5、Ui~N(0, σ2 ) 注意: 对于线性回归模型,模型估计的任务是用回归分析的方法估计模型的参数。 最常用的估计方法是普通最小二乘法。 为保证参数估计量具有良好的性质,通常对模型提出若干基本假设。如果实际模型满足这些基本假设,普通最小二乘法就是一种适用的估计方法; 如果实际模型不满足这些基本假设,普通最小二乘法就不再适用,而要发展其它方法来估计模型。 二、普通最小二乘法(OLS) 普通最小二乘法是一种参数估计方法,确定估计参数的准则是使全部观察值的残差平方和最小, 几个常用的结果 ●样本回归线通过点 ●估计值 的均值等于实际观测值 的均值 估计值和估计量(Estimates and Estimators) 我们通常用希腊字母表示未知参数的真值。假设β是一个我们想知道的参数值,当然,它的真值一般是得不到的,但可以对它进行估计。应用统计技术,我们可以得到β的合理估计值。在任何实际应用中,β的估计值就是一个数字,如β被估计为 –3.88。 第三节、最小二乘估计量的统计性质 一个用于考察总体的估计量,可从如下几个方面考察其优劣性: (1)线性性,即它是否是另一随机变量的线性函数; (2)无偏性,即它的均值或期望值是否等于总体的真实值; (3)有效性,即它是否在所有线性无偏估计量中具有最小方差。 拥有这类性质的估计量称为最佳线性无偏估计量(best liner unbiased estimator, BLUE)。 一、线性性Linear 证明最小方差性 高斯?马尔可夫定理(Gauss-Markov theorem) 在给定经典线性回归的假定下,最小二乘估计量是具有最小方差的线性无偏估计量。 一个估计量如果它是线性的,同时又是有效的(即无偏的,又具有最小方差)那它就是最佳线性无偏估计量BLUE Best Linear Unbiased Property of an Estimator 第四节、一元线性回归模型的统计检验 一、拟合优度检验 二、变量的显著性检验 三、参数的置信区间 回忆:在统计检验之前还需要做什么? 回归分析是要通过样本所估计的参数来代替总体的真实参数,或者说是用样本回归线代替总体回归线。 一、拟合优度检验 goodness-of-fit 拟合优度检验:对样本回归直线与样本观测值之间拟合程度的检验。 3.相关检验correlation (2)样本相关系数检验 什么是自由度degree of freedom 模型中样本值可以自由变动的个数,称为自由度 自由度 = 样本个数 — 样本数据受约束条件(方程)的个数 例如,样本数据个数为n,它们受k个方程的约束(系数矩阵秩为k),那么自由度df = n-k 举例:TSS、RSS、ESS的自由度 对应于平方和分解的自由度的分解 TSS = ESS + RSS n-1 1 n-2 总自由度dfT 回归自由度dfE 残差自由度dfR 自由度分解:dfT= dfE +dfR 可决系数和相关系数的关系:(1)联系 数值上,可决系数等于应变量与解释变量之间简单相关系数的平方: 可决系数和相关系数的关系:(2)区别 二、变量的显著性检验 回归分析是要判断解释变量X是否是被解释变量Y的一个显著性的影响因素。 在一元线性模型中,就是要判断X是否对Y具有显著的线性影响。这就需要进行变量的显著性检验。 1、假设检验 Hypothesis testing 所谓假设检验,就是事先对总体参数或总体分布形式作出一个假设,然后利用样本信息来判断原假设是否合理,即判断样本信息与原假设是否有显著差异,从而决定是否接受或否定原假设。

文档评论(0)

wt60063 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档