- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
【pdf】大数据场景下主题检索应用 - 中国大数据
搜狗精准广告研发部
王晓博
Topic Model在企业的实际场景中如果遇到亿级数
据该如何处理?如何利用有限的计算集群资源处理
超大的文集,我们将围绕这一难题向大家介绍LDA
主题模型训练系统以及它在线上预测时需要面对的
问题和解决办法。
PLSI:潜在语义检索
LDA:Latent Dirichlet Allocation
MPI:基于消息通讯的分布式计算平台
Perplexity:混杂度,常用于度量主题模型训练的
效果
双工通信:同时收取和发送数据
主题检索模型理论基础
大数据场景下的挑战
构建一个高效的训练系统
模型在商业广告检索中的应用
LDA的提出
LDA与PLSA同属topic model,其目标
是相同的。
问题提出:如何在语义层面对文本集
(离散数据集)进行建模。
向量空间模型是一个开创性的概念:
优点:文档可以被表示成一个实数向量;
不同长度的文档都能够被表示成定长的数列;
引入与向量相关的计算方法。
问题:文档被映射在词空间,向量维度太高;
理解能力弱,对语义分析的支持不强。
潜在语义索引:
首先被充当一种降维技术,对doc-word矩阵进行SVD,
提取最能反映向量间差异的线性子空间。
进而被证明能够抓取到基本的语义信息,例如同义、
一词多义。
缺陷:所谓的“抓取语义信息”不够直接,降维的意
义更明显;时间和空间复杂度太大。
引入了潜在主题的概念
极大程度的降维,并能
够发掘有价值的语义信
息。
How?
理论缺陷:没有对应于P(z|d)的生成概率模型,理论
上不完整。 (LDA补足了这个缺陷)
先验 P(z|d) P(w|z)
Dirichlet
参数
模型的优势
• 参数少,overfitting风险小,共有k x |V| + k个参
数
• p(z|d)定义为产生式模型
• 训练集合开放,对于新文档和新词处理能力强
• topic model研究的热点,在bayes graphical
model的框架下优化潜力大
生成文档d 的过程中,包含三个问题:
i
1. d 的表层信息:d 的规模,即d 中包含多少词实例?
i i i
2. d 的语义信息:d 所反映的内容,即d 的主题分布?
i i i
3. d 中每个具体的word都是什么?
i
指定组成文档d 的词的个数N,N服从泊松分
i
布,即N~Poisson(ξ)。
根据Dirichlet先验α,为d 选择一个主题分布θ ,即
i i
θ ~Dirichlet(α)。
i
di
topic
s
P(z|d)
对于N个待定词中的每一个词w ,通过以下步骤确定
n
w 的值:
n
1. 根据θ 为w 选择一个主题z ,即将待定词w 指派
i n
文档评论(0)