spss回归分析大全.ppt

SPSS回归分析;*;*;*;线性回归分析;1.一元线性回归分析的基本理论 把解释变量和被解释变量的多个对应样本值组队成坐标数据对(xi,yi),通过观察数据对(xi,yi)的散点图,如果发现y与xi之间呈现出显著的线性关系,则应考虑建立y和xi的一元线性回归模型,其中,y=a+bx+μ,y为被解释变量;a为模型的截距项;b为待估计参数;x为解释变量;μ为随机误差项。 ;对于一元线性模型,一般采用最小二乘估计法来估计相关的参数(如和的无偏估计值和),从而得到样本回归直线,这样把得到的样本回归直线作为总体回归的近似,是一种预测过程。 那要确定得到的样本回归直线是否能作为总体回归的近似,就必须对回归方程的线性关系进行各种统计检验,包括拟合优度检验、回归方程显著性检验、回归系数的显著性检验(t检验)、残差分析等。;回归方程的拟合优度检验(相关系数检验) 一元线性回归的拟合优度检验采用R2统计量,称为判定系数或决定系数,数学定义为 其中 称为回归平方和(SSA) 称为总离差平方和(SST) R2取值在0-1之间, R2越接近于1,说明回归方程对样本数据点的拟合优度越高。 ;*;回归方程的显著性检验(F检验) 即平均的SSA/平均的SSE,F统计量服从(1,n-2)个自由度的F分布。SPSS将会自动计算检验统计量的观测值以及对应的概率p值,如果p值小于给定的显著性水平α,则应拒绝零假设,认为线性关系显著。 ;*;回归系数的显著性检验(t检验) 一元线性回归方程的回归系数显著性检验的零假设是β1=0,检验采用t统计量,其数学定义为: t统计量服从n-2个自由度的t分布。 SPSS将会自动计算t统计量的观测值以及对应的概率p值,如果p值小于给定的显著性水平α,则应拒绝零假设,认为x对y有显著贡献,线性关系显著。 ;*;残差分析 所谓残差是指由回归方程计算所得的预测值与实际样本值之间的差距,即 它是回归模型中 的估计值。如果回归方程能较好地反映被解释变量 的特征和变化规律,那么残差序列中应不包含明显的规律性和趋势性。 ;残差分析——均值为0的正态性分析 残差均值为0的正态性分析,可以通过绘制残差图进行分析,如果残差均值为0,残差图中的点应在纵坐标为0的横线上下随机散落着。正态性可以通过绘制标准化(或学生化)残差的累计概率图来分析 ;*;*;;*;*;*;*;回归分析步骤: 第一,分析大量样本变量观测值,确定变量之间的数学关系式——回归方程; 第二,分析其回归方程的可信程度,区分影响显著的和影响不显著的自变量; 第三,根据已确定的数学关系,预测(y)或者控制(x)特定变量的取值,并给出预测或控制的精确度。 ;线性回归的使用条件: 线性趋势,即自变量与因变量的关系是线性的。 独立性,因变量Y的取值相互独立。反映在方程中即残差独立。 正态性,即自变量的任何一个线性组合,Y应该服从正态分布。反映在方程中即残差Ei服从正态分布。 方差齐性,自变量的任何一个线性组合,Y的方差相同。 ; 2.一元线性回归分析的SPSS操作 打开【分析】→【回归】 →【线性】,出现线性 回归主对话 框,进行 SPSS程序命令操作, 即对各子对话框 进行设置。 ;(1)变量 因变量 被选入该文本框中的变量为线性回归模型中的被解释变量,数值类型为数值型。如果被解释变量为分类变量,则可以用二元或者多元Logistic模型等建模分析。 自变量 被选入该列表框中的变量为线性模型中的解释变量,数值类型一般为数值型。如果解释变量为分类变量或定性变量,可以用虚拟变量(哑变量)表示。如果选择多个自变量,可将自变量分组成块,通过“上一张”和“下一张”按钮对不同的变量子集指定不同的进入方法。 ;总离差平方和可分解为;(3)选择变量 该文本框主要用于指定分析个案的选择规则,当回归分析中包含由选择规则定义的个案,则需要进行设置。;(4)个案标签 该文本框主要用于指定个案标签的变量。 (5)WLS权重 该文本框表示加权最小二乘,当判断回归模型的残差存在异方差时,才选用加权最小二乘方法,指定加权变量。 ;(6)统计量按钮设置 回归系数选项组: 估计,选择该复选框,可输出回归系数、标准误、标准化系数beta、t值以及t的双尾显著性水平。 ? 置信区间,误差条形图的表征,选择该复选框,可输出每个回归系数或协方差矩阵指定置信度的置信区间,在“水平”框中输入范围。 协方差矩阵,选择它,可输出回归系数

文档评论(0)

1亿VIP精品文档

相关文档