- 4
- 0
- 约7.4千字
- 约 75页
- 2019-10-16 发布于湖北
- 举报
相关系数的显著性检验(SPSS输出结果) 相关分析 9.2 一元线性回归的估计和检验 9.2.1 一元线性回归模型 9.2.2 参数的最小二乘估计 9.2.3 回归直线的拟合优度 9.2.4 显著性检验 第 9 章 一元线性回归 9.2.1 一元线性回归模型 9.2 一元线性回归的估计和检验 什么是回归分析?(regression analysis) 重点考察一个特定的变量(因变量),而把其他变量(自变量)看作是影响这一变量的因素,并通过适当的数学模型将变量间的关系表达出来 利用样本数据建立模型的估计方程 对模型进行显著性检验 进而通过一个或几个自变量的取值来估计或预测因变量的取值 一元线性回归 涉及一个自变量的回归 因变量y与自变量x之间为线性关系 被预测或被解释的变量称为因变量(dependent variable),用y表示 用来预测或用来解释因变量的一个或多个变量称为自变量(independent variable),用x表示 因变量与自变量之间的关系用一个线性方程来表示 一元线性回归模型(linear regression model) 描述因变量 y 如何依赖于自变量 x 和误差项? 的方程称为回归模型 一元线性回归模型可表示为 y = b0 + b1 x + e y 是 x 的线性函数(部分)加上误差项 线性部分反映了由于 x 的变化而引起的 y 的变化 误差项 ? 是随机变量 反映了除 x 和 y 之间的线性关系之外的随机因素对 y 的影响 是不能由 x 和 y 之间的线性关系所解释的变异性 ?0 和 ?1 称为模型的参数 一元线性回归模型(基本假定) 因变量y与自变量x之间具有线性关系 在重复抽样中,自变量x的取值是事先给定的,而y是随机变量,y的取值都对应一个分布。 误差项 ? 满足 正态性。 ?是一个服从正态分布的随机变量,且期望值为0,即? ~N(0 , ?2 ) 。对于一个给定的 x 值,y 的期望值为E(y)=?0+ ?1x 方差齐性。对于所有的 x 值, ?的方差σ2都相同 独立性。对于一个特定的 x 值,它所对应的ε与其他 x 值所对应的ε不相关;对于一个特定的 x 值,它所对应的 y 值与其他 x 所对应的 y 值也不相关 一元线性回归模型(基本假定) x=x3时的E(y) x=x2时y的分布 x=x1时y的分布 x=x2时的E(y) x3 x2 x1 x=x1时的E(y) ?0 x y x=x3时y的分布 ?0+ ?1x 估计的回归方程(estimated regression equation) 总体回归参数 和 是未知的,必须利用样本数据去估计 用样本统计量 和 代替回归方程中的未知参数 和 ,就得到了估计的回归方程 一元线性回归中估计的回归方程为 其中: 是估计的回归直线在 y 轴上的截距, 是直线的斜率,它表示对于一个给定的 x 的值, 是 y 的估计值,也表示 x 每变动一个单位时, y 的平均变动值 9.2.2 参数的最小二乘估计 9.2 一元线性回归的估计和检验 参数的最小二乘估计(method of least squares ) 德国科学家Karl Gauss(1777—1855)提出用最小化图中垂直方向的误差平方和来估计参数 使因变量的观察值与估计值之间的误差平方和达到最小来求得 和 的方法。即 用最小二乘法拟合的直线来代表x与y之间的关系与实际数据的误差比其他任何直线都小 Karl Gauss的最小化图 参数的最小二乘估计 ( 和 的计算公式) 根据最小二乘法,可得求解 和 的公式如下 参数的最小二乘估计(SPSS输出结果) 进行回归 【例】求销售收入与广告费用的估计回归方程 ,并解释回归系数的含义 参数的最小二乘估计(例题分析) 9.2.3 回归直线的拟合优度 9.2 一元线性回归的估计和检验 变 差 因变量 y 的取值是不同的,y 取值的这种波动称为变差。变差来源于两个方面 由于自变量 x 的取值不同造成的 除 x 以外的其他因素(如x对y的非线性影响、测量误差等)的影响 对一个具体的观测值来说,变差的大小可以通过该实际观测值与其均值之差 来表示 误差分解图 误差平方和的分解 (误差平方和的关系) 误差平方和的分解 (三个平方和的意义) 总平方和(SST—total sum of squares) 反映因变量的 n 个观察值与其均值的总误差 回归平方和(SSR—sum of squares of regres
原创力文档

文档评论(0)