数理统计第十章 回归分析PPT.ppt

  1. 1、本文档共61页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
数理统计第十章 回归分析PPT

则(10.3.3)可表为 Y=X?+? , ? ~N(0, ?2In) (10.3.8) (10.3.7)可表为 正规方程组可用向量矩阵形式简洁表出。令 其中X为正规方程组的结构矩阵,A=X′X为系数矩阵, 是一个p+1阶方阵,B=X′Y为常数项矩阵。 在回归分析中通常A–1存在,故 从而由最小二乘估计 可建立回归方程(10.3.4), 并利用它对指标y进行预报和控制。例如给出 任意一组变量x1,…,xp的值(x01,…,x0p ),由 (10.3.4)可得y0的预测值: 定义 为了得到预测的精度及控制生产的需要, 通常还要求得?2的估计。 实测值yi与回归值 的差 叫残差, 称为剩余平方和(或残差平方和)。 叫残差向量, 一般地,有 推论 定理10.1 E(Se)=(n?p?1)?2, 从而 是?2的无偏估计。 定理10.2 现在进一步研究最小二乘估计 (least square estimation) 的性质。 是? 的无偏估计,其协方差阵为 定理10.3 定理10.4 当Y~N(X?, ?2In)时, 与Se独立,且 其中q为矩阵X的秩。 ? 的L.S.E与残差向量的几何意义 求? 的L.S.E ,就是求一个 使得Y与 的距离最短,这等价于在U(X)中找一向量 使得 这只能在 才能办到, 式(10.3.16)指出了这一点, 可见 是Y在U(X)上的投影。 三、假设检验 变量y与x1, ··· , xp之间是否确有线性关系 即检验假设 H0:?1=?2=···=?p=0 (10.3.17) 若y与x1, ··· , xp之间确有线性关系,那么 因子xj对y作用是否显著呢?这需要检验 假设 H0 :?j=0, (j=1, ··· , p) (10.3.18) 1. 假设 (10.3.17)的检验法 总偏差平方和 其中 即剩余平方和,它反映 除去y与x1,…,xp之间的线性关系以外一切因素引起的数据yi间的波动。而 称为回归平方和。反映由变量x1,…,xp的变化引起的数据yi间的波动。 在p元线性回归模型(10.3.3)中,当假设 (10.3.17)真时, 故 由定理10.4知 由于SR是正态变量的平方和,其自由度为 (n?1)?(n?p?1)=p, 故由定理6.3.2(柯赫伦)知,在(10.3.17)真时, Se与SR相互独立,且 从而有 2. 假设(10.3.18)的检验问题 最后,给定显著性水平后,即可得到假设(10.3.17)的拒绝域 由定理10.4知 其中cjj为 (X′X)–1中第j +1个对角元素,且 独立,故 这就是用来检验第j 个因子?j 是否显著为零的统计量。于是,给定显著性水平?,假设(10.3.18)的拒绝域为 四. 回归系数的区间估计、预测和变量控制 1. ? 的线性函数的区间估计 若检验得知回归因子xj对y的影响显著,此时常要考虑?j的区间估计问题。一般地说,在回归分析中常要求考虑? 的线性函数的区间估计问题。 设?=(?1,?2,···,?p)′为实常向量,记 我们要求的是?的置信度为1–?的置信区间。 第十章 回归分析 回归分析的基本概念 一元线性回归 多元线性回归 1、函数关系 y=f (x); 2、相关关系 Y = f (x, ?), 其中?为随机变量。 常把上述关系表为: Y = f (x) + ? ——确定性 ——非确定性 相关关系式中最简单、最常用的一种是线性回归, 即其中f (x) =L(x) = ax + b 的情形. §10.1 回归分析基本概念 一. 相关关系 二、一元线性回归的数学模型 1、一元线性理论回归模型 (10.1.1) 其中 为确定性部分,?0 、 ?1为未知参数 2、一元线性回归模型 对(x, y)作n次独立观察,得n组数据(xi, yi), 代入( 10.1 )得一元线性回归模型 (10.1.2) 由(xi, yi)的值可作出?0 、 ?1的估计 从而可得 上述方程称为一元线性经验回归方程(简称 回归方程) 参数的最小二乘估计 模型线性性的检验 预测与控制 §10﹒2 一元线性回归 1. ?0, ?1的最小二乘估计 先讨论问题: 如何由 (10. 2. 2)去估计(10. 2. 3)中的参数?0, ?1 与 ?2 。 若已得到?0, ?1的估计 则线性方程 称为一元线性经验回归方程(简称回归方程)。于是对(10. 2. 2)的每一组观测值,由(10. 2. 4)均可求得一个相应的值 常称为回归值或预测值、拟合

文档评论(0)

erfg4eg + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档