第章 回归分析.doc

第章 回归分析

第9章 回归分析 在实际生活中,某个现象的发生或某种结果得出的往往与其他某个或者某些因素有关,但是这种关系又不是确定的,只是从数据上可以看出“有关”的趋势。回归分析就是用来研究具有这种特征的变量之间的相关关系,回归分析有多种分析方法,下面主要介绍线性回归。 线性回归假设因变量与自变量之间为线性关系,用一定的线性回归模型来拟合因变量和字变量的数据,并通过确定模型参数来得到回归方程。根据自变量的多少,线性回归可有不同的划分。当自变量只有一个时,称为一元回归时;当自变量有多少时,称为多元线性回归。另外,可以转换为一元回归的多元回归问题也在本章一并介绍。 第1节 一元线性回归 1.基本数学原理 (1)回归模型与参数的确定 一元线性回归研究因变量与一个自变量之间的线性关系,其回归模型为: 式中,为因变量,为自变量,为待定参数(其中称为回归参数)。 通常采用最小二乘法来确定上面两个待定系数,即要求观测值与利用上面回归模型得到的拟合值之间差值的平方和最小。差值平方和达到最小时的模型参数便作为待定参数的最终取值。代入模型,便可以确定回归方程。 (2)回归系数的显著性检验 给定上述模型和实测数据以后,总可以得到待定参数的拟和值,但是由此确定的回归方程不一定有意义。因此,需要对得到的回归参数作显著性检验,即检验回归系数时是否为0,如果为0,则说明因变量与自变量无关,回归方程无意义。回归参数的显著性检验有多种方法,下面介绍F检验法、T检验法和相关系数进行检验。 F检验法: 为了对回归方程作显著性检验,首先将观测值和拟和值差值的平方和(SS)分解为回归平方和(SSR)和残差平方和(SSE ),用以下统计量进行检验: 式中,n为数据组数,当F值大于一定的临界时,拒绝原假设,即认为因变量与自变量之间的系数不为0,其中存在相关关系。 t检验法 作t检验时取下面的统计量: 当该统计量大于一定的临界值时,拒绝原假设,认为因变量与自变量之间是相关的。 相关系数检验法 取下面的统计量: 式中:称为相关系数。当相关系数的绝对值大于一定的临界值,拒绝原假设。 (3)回归系数的区间估计 前面由最小二乘法得到的是回归系数的点估计(称为最小二乘法),实际问题中常要求给出回归系数的置信区间。常数项和回归系数的置信水平为置信区间可由下面两式给出。 (4)预测 经检验回归系数为显著以后,便可以利用回归方程式作预测了。只要输入自变量的一个取值,便可以获得一个因变量的估计值。当给定预测精度时,可以获得回归系数的预测区间。 (5)假设的检验 进行线性回归时,有4个基本假定:即因变量与自变量之间线性关系的假定;残差的独立性假定,残差的方差齐性假定和残差正态分布的假定。在实际工作中应该对这些假定一一检验,对于不符合假定的,应该采取相应的措施进行处理。 线性诊断: 对于一元线性回归问题,直接作自变量与因变量的散点图就可以大致地看出它们之间的是否具有线性关系。另外,利用残差图也可以进行判断,在标准残差-标准预测值散点图中,图中各点应该在纵坐标零点对应的直线上下比较均匀地分布,而不呈现一定的规律。 残差的独立性诊断: 可以在运行过程中保存残差,然后对保存的残差变量用前面所说的独立性检验方法进行残差的独立性诊断,也可以运用Durnin-Watson检验法进行检验,该方法采用的统计量为: 式中,为当前点的残差,为前一点的残差,n为数据组数。 当|DW-2|过大时拒绝原假设,认为相邻两点的残差之间是相关的。当DW2时,认为相邻两点的残差为正相关,当DW2时,认为相邻两点的残差为负相关。只有DW≌2时,认为相邻两点的残差之间是相互独立的。 残差的方差齐性诊断: 残差的方差齐性诊断可以通过生成和分析标准化预测值-学生化残差散图来实现。当图中各点分布没有明显的规律性,即残差的分布不随预测值的变化而增大或减小时,认为残差是方差齐性的。 残差的正态性诊断: 残差的正态分布可以通过直方图和P-P正态概率图来实现。 2.SPSS实现 (1)用散点交互图分析 用散点交互图进行分析,按照下面的步骤进行: ·在数据编辑器中打开数据文件; ·按照Graphs(Interactive-Scatterplot的顺序选择菜单,打开Creat Scatterplot对话框; ·在Assign Variables选项卡中单击二维坐标系按钮,分别在纵轴窗口和横轴窗口中输入变量y和x; ·在Fit选项卡中的Method方框内的下拉式列表框

文档评论(0)

1亿VIP精品文档

相关文档