- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
Logistic回归;二分类:Binomial
多分类:Multinomial(有序/无序)
完全随机:非条件Logistic回归
配对设计:条件Logistic回归;第一节二分类Logistic回归;Logistic回归资料类型;二分类Logistic回归模型;;Logistic回归的SPSS软件实现;Categorical按钮:
多分类变量(如血型等),必须要将它用哑变量的方式来分析。
默认的是以最大取值为基础水平;Save钮:将中间结果存储起来供以后分析,共有预测值、影响强度因子和残差三大类。;Options钮:这里我们可以对模型作精确定义,还可以选择模型预测情况的描述方式,如StatisticsandPlots中的Classificationplots就是非常重要的模型预测工具,Correlationsofestimates则是重要的模型诊断工具,Iterationhistory可以看到迭代的具体情况,从而得知你的模型是否在迭代时存在病态。
下方则可以确定进入和排除的概率标准,这在逐步回归中是非常有用的。;例题1;;在菜单上选择Analyze==》Regression==》BinaryLogistic(二分类logistic)...,
系统弹出Logistic回归对话框如下:
;点击Categorical引入多分类变量;Save钮,将中间结果存储起来供以后分析,共有预测值、影响强度因子和残差三大类。;Options按钮可以获得分类图等;记录情况;;;5个自变量去全部放入模型得分检验结果为19.451,自由度为5,P值为0.002,说明模型全局性检验有意义;;;;当参数估计值的符号为正时,因素取值增大时,OR1.0,使危险性加大.该因素为危险因素
当参数估计值的符号为负时,因素取值增大时,OR1.0,使危险性减少.该因素为保护因素.
;筛选方法:
(1)forwardselection
(2)Backwardelimination
(3)Stepwiseselection;应用中的注意事项:
1.样本量要满足多变量分析的要求,样本量要求为自变量数的10-20倍以上.
2.对自变量的筛选不能完全依赖于统计软件中提供的自动筛选程序。应结合专业知识和统计学原理小心筛选.
3.在某些情况下,连续性变量可以等级化,甚致变为分类变量后再配合模型。
4.Logistic回归模型是一个乘法关系的多变量模型,当计算多个变量的综合效应时,可能出现扩大综合效应的现象。;频数表资料;;1.先加权(略)
2.在菜单上选择Analyze==》Regression==》BinaryLogistic(二分类logistic)...,;;第二条件Logistic回归;;Spss步骤;CoxRegression
;;;频数表数据;;Spss步骤;;;第三有序Logistic回归;;Spss步骤;;模型检验结果;;第四多分类Logistic回归;;Spss步骤;Analyze==》Regression==》MultionomialLogistic
;Model对话框;P小于0.05,说明模型中至少1个自变量有统计学意义;两自变量size和lake对模型的贡献都有统计学意义;;根据上面结果可得4个logit模型;第五Cox回归模型;;Spss步骤;;Categorical对话框;Plots对话框;Options对话框;总例数、删失数据、失访数据例数及比例;;;谢谢大家!
原创力文档


文档评论(0)