分层线性模型.doc

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
实用标准文案 精彩文档 分层线性模型(hierarchical linear model HLM)的原理及应用 一、概念: ??? 分层线性模型(hierarchical linear model HLM)又名多层线性模型 (Multilevel Linear Model MLM)、层次线性模型(Hierarch Linear Mode1)、多层分析(Multilevel Analysis/Model)。相对于传统的两种统计方法:一般线性模型(general linear model GLM)和广义线性模型(generalized linear models GLMs),它们又有所不同,HLM中的线性模型指的是线性回归,不过它与一般的分层线性回归(Hierarchical Regression)又是不同的,具体的不同见下面数学模型部分。HLM又被通俗的称为“回归的回归”。 Wikipedia:“一般线性回归和多重线性回归都是发生在单一层面,HLM相对于更适用于嵌套数据(nest data)。” ??? 在理解HLM之前应了解有关回归分析和嵌套设计(分层设计)的基本知识。 二、模型: 1、假设:由于个体行为不仅受个体自身特征的影响,也受到其所处环境(群体/层次)的影响。相对于不同层次的数据,传统的线性模型在进行变异分解时,对群组效应分离不出,而增大模型的误差项。而且不同群体的变异来源也可能分布不同,可能满足不了传统回归的方差齐性假设。在模型应用方面,不同群体(层次)的数据,也不能应用同一模型。鉴于传统方法的局限性,分层技术则解决了这些生态谬误(Ecological Fallacy)。它包含了两个层面的假设: a、个体层面:这个与普通的回归分析相同,只考虑自变量X对因变量Y的影响。 b、群组层面:群组因素W分别对个体层面中回归系数和截距的影响。 2、数学模型: a、个体层面: Yij=Β0j+Β1jXij+eij b、群组层面: Β0j=γ00+γ01Wj+U0j Β1j=γ10+γ11Wj+U1j ??? 涉及到多个群组层次的时候原理与之类似,可以把较低级层次的群组,如不同的乡镇层面与不同的县市层面,可以这样理解,乡镇即是一个个体,群组即是不同的县市。更多层次的可以这样理解,一直是下一层对上一层回归系数和截距的回归。与普通的“回归的回归”不同的是,整个计算过程通过迭代过程完成。 3、因变量: ??? 此处数学模型仅适用于连续的单因变量。非连续因变量、多因变量、潜变量以及非典型的嵌套设计,多层线性模型也可以进行处理,但对模型的设定会更复杂。 4、与分层回归的区别: a、向前回归、向后回归和逐步回归: ??? 向前回归:根据自变量对因变量的贡献率,首先选择一个贡献率最大的自变量进入,一次只加入一个进入模型。然后,再选择另一个最好的加入模型,直至选择所有符合标准者全部进入回归。 ??? 向后回归:将自变量一次纳入回归,然后根据标准删除一个最不显著者,再做一次回归判断其余变量的取舍,直至保留者都达到要求。 ??? 逐步回归是向前回归法和向后回归法的结合。首先按自变量对因变量的贡献率进行排序,按照从大到小的顺序选择进入模型的变量。每将一个变量加入模型,就要对模型中的每个变量进行检验,剔除不显著的变量,然后再对留在模型中的变量进行检验。直到没有变量可以纳入,也没有变量可以剔除为止。 向前回归、向后回归和逐步回归都要按照一定判断标准执行。即在将自变量加入或删除模型时,要进行偏F检验。 b、分层回归与前三者的区别与联系: ??? 在理解分层回归与以上三者的区别时,应理解以下三个概念。 ??? 总体变异:预测变量X和结果变量Y之间相关的平方,它包括该X和Y之间的所有关系。 ??? 共同变异:在每个X互相独立的理想情况下,共同变异为0。它指的是X对Y的影响的重叠部分。 ??? 独特变异:在控制了其他变量以后,特定X对Y的影响。它表示了Y中由特定X所单独解释的变异。假如X之间存在重叠,那么它们共有的变异就会削弱独特变异。X的独特效应指的是去除重叠效应后该X与Y的偏相关的平方。可以看出,X的独特变异依赖于其他预测变量。 在强制回归(ENTER法)中,所有预测变量的偏决定系数之和要小于整个模型的决定系数(R2)。总决定系数包括偏决定系数之和与共同变异。强制回归(ENTER法)的局限性在于不能将重叠(共同)变异归因于模型中的任何一个预测变量,每个预测变量只能分配到它所解释的独特变异,共同变异则被抛弃了。此时的偏相关的平方与回归系数是等同的。分层回归与以上三种方法则提供了一种可以将共同变异分配给特定预测变量的方法。共同变异将会分配给优先进入模型的变量。在分层回归中,将会把重叠(共同)变异分配给第一层模型中的预测变量。因此,上面三种方法则是针对自变

文档评论(0)

dmz158 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档