第章多元线性回归重点解读.pptVIP

  • 35
  • 0
  • 约8.62千字
  • 约 77页
  • 2016-06-09 发布于湖北
  • 举报
好的模型选择可遵循一个称为奥克姆剃刀(Occam’s Razor)的基本原理:最好的科学模型往往最简单,且能解释所观察到的事实。 ——William Navidi 第 10 章 多元线性回归 10.1 多元线性回归模型 10.2 拟合优度和显著性检验 10.3 多重共线性及其处理 10.4 利用回归方程进行预测 10.5 哑变量回归 学习目标 多元线性回归模型、回归方程与估计的回归方程 回归方程的拟合优度与显著性检验 多重共线性问题及其处理 利用回归方程进行预测 哑变量的回归 用SPSS进行回归分析 身高受那些因素影响? 决定身高的因素是什么?父母遗传、生活环境、体育锻炼,还是以上各因素的共同作用 2004年12月,中国人民大学国民经济管理系02级的两位学生,对人大在校生进行了问卷调查。 调查的样本量为98人,男性55人,女性43人。 父亲身高、母亲身高、性别是不是影响子女身高的主要因素呢? 这就是本章将要讨论的多元线性回归问题 10.1.1 回归模型与回归方程 10.1.2 参数的最小二乘估计 参数的最小二乘估计 参数的最小二乘法(例题分析) 参数的最小二乘估计(SPSS输出结果) 10.2.1 回归方程的拟合优度 多重判定系数 (multiple coefficient of determination) 回归平方和占总平方和的比例 计算公式为 因变量取值的变差中,能被估计的多元回归方程所解释的比例 多重相关系数 (multiple correlation coefficient) 多重判定系数的平方根R 反映因变量y与k个自变量之间的相关程度 实际上R度量的是因变量的观测值 与由多元回归方程得到的预测值 之间的关系强度,即多重相关系数R等于因变量的观测值 与估计值 之间的简单相关系数即 估计标准误差 Se 对误差项?的标准差? 的一个估计值 衡量多元回归方程的拟合优度 计算公式为 10.2.2 显著性检验 线性关系检验 提出假设 H0:?1??2????k=0 线性关系不显著 H1:?1,?2,? ?k至少有一个不等于0 回归系数的检验 线性关系检验通过后,对各个回归系数有选择地进行一次或多次检验 究竟要对哪几个回归系数进行检验,通常需要在建立模型之前作出决定 对回归系数检验的个数进行限制,以避免犯过多的第Ⅰ类错误(弃真错误) 对每一个自变量都要单独进行检验 应用 t 检验统计量 回归系数的检验(步骤) 提出假设 H0: bi = 0 (自变量 xi 与 因变量 y 没有线性关系) H1: bi ? 0 (自变量 xi 与 因变量 y有线性关系) 计算检验的统计量 t 回归系数的推断 (置信区间) ?回归系数在(1-?)%置信水平下的置信区间为 10.3.1 多重共线性及其识别 多重共线性(multicollinearity) 回归模型中两个或两个以上的自变量彼此相关 多重共线性带来的问题有 可能会使回归的结果造成混乱,甚至会把分析引入歧途 可能对参数估计值的正负号产生影响,特别是各回归系数的正负号有可能同预期的正负号相反 多重共线性的识别 检测多重共线性的最简单的一种办法是计算模型中各对自变量之间的相关系数,并对各相关系数进行显著性检验 若有一个或多个相关系数显著,就表示模型中所用的自变量之间相关,存在着多重共线性 如果出现下列情况,暗示存在多重共线性 模型中各对自变量之间显著相关 当模型的线性关系检验(F检验)显著时,几乎所有回归系数的t检验却不显著 回归系数的正负号与预期的相反 相关矩阵及其检验 (SPSS ) 多重共线性的处理 将一个或多个相关的自变量从模型中剔除,使保留的自变量尽可能不相关 如果要在模型中保留所有的自变量,则应 避免根据 t 统计量对单个参数进行检验 对因变量值的推断(估计或预测)的限定在自变量样本值的范围内 10.3.2 变量选择与逐步回归 变量选择过程 在建立回归模型时,对自变量进行筛选 选择自变量的原则是对统计量进行显著性检验 将一个或一个以上的自变量引入到回归模型中时,是否使得残差平方和(SSE)有显著地减少。如果增加一个自变量使SSE的减少是显著的,则说明有必要将这个自变量引入回归模型,否则,就没有必要将这个自变量引入回归模型 确定引入自变量是否使SSE有显著减少的方法,就是使用F统计量的值作为一个标准,以此来确定是在模型中增加一个自变量,还是从模型中剔除一个自变量 变量选择的方法主要有:向前选择、向后剔除、逐步回归、最优子集等 向

文档评论(0)

1亿VIP精品文档

相关文档