分层线性模型.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
分层线性模型 分层线性模型 分层线性模型 分层线性模型 ( hierarchical linear model HLM  )的原理及应用 一、观点: 分层线性模型( hierarchical linear model HLM )别名多层线性模型 ( Multilevel Linear Model MLM)、层次线性模型( Hierarch Linear Mode1)、 多层剖析( Multilevel Analysis/Model )。有关于传统的两种统计方法:一般 线性模型( general linear model GLM )和广义线性模型( generalized linear models GLMs),它们又有所不同, HLM中的线性模型指的是线性回归,可是它 与一般的分层线性回归( Hierarchical Regression )又是不同的,详细的不同 见下边数学模型部分。 HLM又被平常的称为“回归的回归”。 Wikipedia :“一般线性回归和多重线性回归都是发生在单调层面, HLM有关于 更合用于嵌套数据( nest data )。” 在理解 HLM以前应认识有关回归剖析和嵌套设计(分层设计)的基本知 识。 二、模型: 1、假定:因为个体行为不单受个体自己特点的影响,也遇到其所处环境(集体 / 层次)的影响。有关于不同层次的数据,传统的线性模型在进行变异分解时,对群组效应分别不出, 而增大模型的偏差项。 并且不同集体的变异根源也可能散布不同,可能知足不了传统回归的方差齐性假定。在模型应用方面,不同集体(层次)的数据,也不可以应用同一模型。基于传统方法的限制性,分层技术则解决了这些生态错误( Ecological Fallacy )。它包含了两个层面的假定: a、个体层面:这个与一般的回归剖析相同, 只考虑自变量 X 对因变量 Y 的影响。 b、群组层面:群组要素 W分别对个体层面中回归系数和截距的影响。 2、数学模型: a、个体层面: Yij= Β0j+ Β 1jXij+eij b、群组层面: 0j= γ00+γ01Wj+U0j 1j= γ10+γ11Wj+U1j 波及到多个群组层次的时候原理与之近似,能够把较初级层次的群组, 如不同的乡镇层面与不同的县市层面, 能够这样理解, 乡镇即是一个个体, 群组即是不同的县市。 更多层次的能够这样理解, 向来是下一层对上一层回归系数和截距的回归。与一般的“回归的回归”不同的是, 整个计算过程经过迭代过程达成。 3、因变量: 此处数学模型仅合用于连续的单因变量。非连续因变量、多因变量、潜 变量以及非典型的嵌套设计, 多层线性模型也能够进行办理, 但对模型的设定会 更复杂。 4、与分层回归的差别: a、向前回归、向后回归和逐渐回归: 向前回归:依据自变量对因变量的贡献率,第一选择一个贡献率最大的自变量进入,一次只加入一个进入模型。而后,再选择另一个最好的加入模型,直至选择所有切合标准者所有进入回归。 向后回归:将自变量一次归入回归, 而后依据标准删除一个最不明显者,再做一次回归判断其余变量的弃取,直至保存者都达到要求。 逐渐回归是向前回归法和向后回归法的联合。第一按自变量对因变量的 贡献率进行排序, 依据从大到小的次序选择进入模型的变量。 每将一个变量加入 模型,就要对模型中的每个变量进行查验, 剔除不明显的变量, 而后再对留在模 型中的变量进行查验。直到没有变量能够归入,也没有变量能够剔除为止。 向前回归、向后回归和逐渐回归都要依据必定判断标准履行。 即在将自变量加入 或删除模型时,要进行偏 F 查验。 b、分层回归与前三者的差别与联系: 在理解分层回归与以上三者的差别时,应理解以下三个观点。 整体变异:展望变量 X 和结果变量 Y 之间有关的平方,它包含该 X 和 Y 之间的所有关系。 共同变异:在每个 X相互独立的理想状况下, 共同变异为 0。它指的是 X 对 Y 的影响的重叠部分。 独到变异:在控制了其余变量此后,特定 X 对 Y 的影响。它表示了 Y 中 由特定 X 所独自解说的变异。 若是 X 之间存在重叠, 那么它们共有的变异就会削 弱独到变异。 X 的独到效应指的是去除重叠效应后该 X 与 Y 的偏有关的平方。可 以看出, X 的独到变异依靠于其余展望变量。 在强迫回归( ENTER法)中,所有展望变量的偏决定系数之和要小于整个模型的 决定系数( R2)。总决定系数包含偏决定系数之和与共同变异。 强迫回归( ENTER 法)的限制性在于不可以将重叠(共同)变异归因于模型中的任何一个展望变量, 每个展望变量只好分派到它所解说的独到变异, 共同变异则被扔掉了。 此时的偏 有关的平方与回归系数是等同的。 分层回归与以上三种方法例供给了

文档评论(0)

175****2036 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档