网站大量收购独家精品文档,联系QQ:2885784924

机器学习 课件 3.3吉布斯采样方法.pdf

  1. 1、本文档共18页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

吉布斯采样方法

吉布斯采样(GibbsSampling)

Gibbs

Gibbs

1.X0{x10,x20,...,xn0}

2.Xi{x1i,x2i,...,xni}x1i+1x1i+1~p(x1|Xi-1)

3.x2x2~p(x2|x1,x3,...xn)

i+1i+1i+1ii

4.xni+1xni+1~p(xn|x1i+1,x2i+1,...x(n-1)i+1)

5.2~4X2~4X

LDA的参数学习

LDA的参数学习

Inference

P(θ,Z,φ,W;ɑ,β)-P(Z,W;ɑ,β)-P(Z;ɑ,β)-P(Z(m,n);Z-(m,n)ɑ,β)

UsingGibbsSampler

LDA的参数学习

Inference

LDA的参数学习

参数推断(Inference)

所有的相互之间是独立的,而且对ϕ也是独立的,因此,我们可以单独地处

理每个和每个ϕ。现在,我们仅仅聚焦在只有的部分:

LDA的参数学习

参数推断(Inference)

我们进一步聚焦在只有一个的部分:

实际上,它是模型在第j个文档的隐藏部分。现在,我们把每个概率分布的

精确表达式写出来,就得到了下面的表达式:

LDA的参数学习

参数推断(Inference)

假设是在第j个文档中被赋予第i个主题的第r个词总个数;

因此,是三维的。如果这三维里面的任何一维没有被指定一个特定值,

用()的形式表示。例如表示第j个文档中被赋予第i个主题的所

有词的数量。因此,上述表达式的最右边可以被写为:

LDA的参数学习

参数推断(Inference)

因此,对积分可以变为:

j

清楚地,在这个积分里面的等式与狄利克雷分布的形式一样,而

LDA的参数学习

参数推断(Inference)

因此,

LDA的参数学习

参数推断(Inference)

现在,我们对部分进行处理。

实际上,部分的处理与部分是非常类似的,

因此我们将推导结果直接列出

LDA的参数学习

参数推断(Inference)

因此,在将ϕ和都通过积分消除之后得到

的最终表达式,如下:

这里,吉布斯采样的目标是要去近似分布P(Z|W;,)。因为P(W;,

)对任何的Z都是不变的,所以吉布斯采样的等式可以等价于P(Z,W;

,)。关键在于要推导出下列条件概率:

LDA的参数学习

参数推断(Inference)

这里,Z(m,n)表示在第m个文档中的第n个词对应的隐变量。进一步,我们

假设这个词是词表里面的第v个词。Z-(m,n)表示除了Z(m,n)之外的所有Z。注

意:吉布斯采样仅仅需要采样Z(m,n)的一个值,而不需要精确解

本质上,只需要概率之间的比率就可以达到求取Z(m,n)的目标,因此上述公

式可以简化为:

LDA的参数学习

参数推断(Inference)

LDA的参数学习

参数推断(Inference)

最终,假设与具有同样的意

义,除了Z(m,n)被排除在外。上述的公式能通

文档评论(0)

lai + 关注
实名认证
内容提供者

精品资料

版权声明书
用户编号:7040145050000060

1亿VIP精品文档

相关文档