CHAP11 回归分析1.ppt

  1. 1、本文档共56页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
CHAP11 回归分析1

第11章 回归分析 介绍: 1、回归分析的概念和模型 2、回归分析的过程 回归分析的概念 寻求有关联(相关)的变量之间的关系 主要内容: 从一组样本数据出发,确定这些变量间的定量关系式 对这些关系式的可信度进行各种统计检验 从影响某一变量的诸多变量中,判断哪些变量的影响显著,哪些不显著 利用求得的关系式进行预测和控制 回归分析的模型 按是否线性分:线性回归模型和非线性回归模型 按自变量个数分:简单的一元回归,多元回归 回归分析的模型 基本的步骤:利用SPSS得到模型关系式,是否是我们所要的,要看回归方程的显著性检验(F检验)和回归系数b的显著性检验(T检验),还要看拟合程度R2 (相关系数的平方,一元回归用R Square,多元回归用Adjusted R Square) 回归分析的过程 在回归过程中包括: Liner:线性回归 Curve Estimation:曲线估计 Binary Logistic: 二分变量逻辑回归 回归分析的过程 Multinomial Logistic:多分变量逻辑回归 Ordinal 序回归 Probit:概率单位回归 Nonlinear:非线性回归 Weight Estimation:加权估计 2-Stage Least squares:二段最小平方法 Optimal Scaling 最优编码回归 11.1 线性回归(Liner) 一元线性回归方程: y=a+bx a称为截距 b为回归直线的斜率 用R2判定系数判定一个线性回归直线的拟合程度:用来说明用自变量解释因变量变异的程度(所占比例) 回归方程 回归方程的显著性检验 目的:检验自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示. 检验方法: t检验 F检验(一元回归中,F检验与t检验一致, 两种检验可以相互替代) 回归方程 附:残差分析: 残差序列的正态性分析 可以绘制标准化残差序列的带正态曲线的直方图或累计概率图来分析; 残差序列的随机性分析 可以绘制残差序列和对应的预测值序列的散点图。如果残差序列是随机的,那么残差序列应与预测值序列无关,残差序列点将随机地分布在经过零的一条直线上下; 回归方程 残差序列的独立性分析 目的是分析残差序列是否存在后期值与前期值相关的现象。如果存在相关现象,表示残差序列中还存有一些规律性,回归方程没能较全面地反映因变量的变化。 一般用D-W检验作残差序列的独立性分析。 D-W值=0:完全正自相关; D-W值=4:完全负自相关;D-W值在0和2之间:正自相关; D-W值在2和4之间:负自相关。实际应用中,接近2就可以认为残差序列具有独立性。 奇异值(Casewise或Outliers)诊断 概念 奇异值指样本数据中远离均值的样本数据点,会对回归方程的拟合产生较大偏差影响。 诊断标准 一般认为,如果某样本点对应的标准化残差值超出了[-3,+3]的范围,就可以判定该样本数据为奇异值。 线性回归方程的预测 点估计 y0 区间估计 95%的近似置信区间: [y0-2Sy,y0+2Sy]. x0为xi的均值时,预测区间最小,精度最高.x0越远离均值,预测区间越大,精度越低. 线性回归(Liner) 一元线性回归模型的确定:一般先做散点图(Graphs -Scatter-Simple),以便进行简单地观测(如:Salary与Salbegin的关系) 若散点图的趋势大概呈线性关系,可以建立线性方程,若不呈线性分布,可建立其它方程模型,并比较R2 (--1)来确定一种最佳方程式(曲线估计) 线性回归(Liner) 多元线性回归方程: y=b0+b1x1+b2x2+…+bnxn b0为常数项 b1、b2、…、bn称为y对应于x1、x2、…、xn的偏回归系数 用Adjusted R2调整判定系数判定一个多元线性回归方程的拟合程度:用来说明用自变量解释因变量变异的程度(所占比例) 多元线性回归分析中的自变量筛选 自变量筛选的目的 多元回归分析引入多个自变量. 如果引入的自变量个数较少,则不能很好的说明因变量的变化; 但并非自变量引入越多越好.原因: 有些自变量可能对因变量的解释没有贡献,自变量间可能存在较强的线性关系,即:多重共线性. 因而不能全部引入回归方程. 多元线性回归分析中的自变量筛选 自变量筛选法 向前筛选法(forward),是自变量不断进入回归方程的过程. 向后筛选法(backward),是自变量不断剔除出回归方程的过程 逐步筛选法(stepwise),是“向前法”和“向后法”的结合 多元线性回归一般采用逐步回归方法-St

文档评论(0)

haowendangqw + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档