- 1、本文档共16页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2003.12.18 机器学习-贝叶斯学习 作者:Mitchell 译者:曾华军等 讲者:陶晓鹏 贝叶斯网络学习概述 简单地说,贝叶斯网络是一种用来表示变量间连续概率的有向无环图模型,图中的节点表示变量,有向边表示变量间的依赖关系。 基于贝叶斯网络的推理为衡量多个假设的置信度提供了定量方法,为直接操作概率的学习算法提供了理论基础,也为其他算法的分析提供了理论框架。 先验概率和后验概率 用P(h)表示在没有训练数据前假设h拥有的初始概率。P(h)被称为h的先验概率。 先验概率反映了关于h是一正确假设的机会的背景知识 如果没有这一先验知识,可以简单地将每一候选假设赋予相同的先验概率 类似地,P(D)表示训练数据D的先验概率,P(D|h)表示假设h成立时D的概率 在分类中,我们关心的是P(h|D),即给定D时h的成立的概率,称为h的后验概率 贝叶斯公式 贝叶斯公式提供了从先验概率P(h)、P(D)和P(D|h)计算后验概率P(h|D)的方法 P(h|D)随着P(h)和P(D|h)的增长而增长,随着P(D)的增长而减少,即如果D独立于h时被观察到的可能性越大,那么D对h的支持度就越小。 基本概率公式表 乘法规则:P(A?B)=P(A|B)P(B)=P(B|A)P(A) 加法规则:P(A?B)=P(A)+P(B)-P(A?B) 贝叶斯法则:P(h|D)=P(D|h)P(h)/P(D) 全概率法则:如果事件A1...An互斥,且满足 ,则 贝叶斯网络与联合概率分布 贝叶斯网络分类器 设每个实例x可由属性值的合取描述,而目标函数f(x)从某有限集合V中取值。 应用贝叶斯网络方法的新实例分类目标是在给定描述实例的属性值a1,...,an下,得到最可能的目标值vMAP 使用贝叶斯公式变化上式 最优贝叶斯网络分类器 贝叶斯网络分类器的困难 基于训练数据估计上面式子中的两个数据项的值 估计P(vj)虽然很容易:计算每个目标值vj出现在训练数据中的频率。 估计P(a1,...an|vj)却非常困难,除非有一个非常大的训练数据集,否则无法获得可靠的估计。 属性条件独立假设 为避免估计P(a1,...an|vj)遇到的困难,朴素贝叶斯网络分类器引入了一个简单的假定:在给定目标值时,属性值之间相互条件独立。这个假设被广泛第称作属性条件独立假设。 所以有 成立。 朴素贝叶斯分类器 朴素贝叶斯网络分类器的计算公式如下: 显然,从训练数据中估计不同P(ai|vj)项的计算量比要估计P(a1,...,an|vj)项所需的计算量小得多。 朴素贝叶斯网络分类器没有明确地搜索可能假设空间的过程,只需简单地计算训练样例中不同数据组合的出现频率。 NB图 朴素贝叶斯网络分类的例子 已知PlayTennis数据库中的14个训练样例,则给新实例sunny, cool, high, strong分类用公式: 根据数据库,可以计算出上式需要的各项概率值 P(yes)=9/14=0.64 P(no)=5/14=0.36 P(strong|yes)=3/9=0.33 P(strong|no)=3/5=0.60 ... 求vNB P(yes)P(sunny|yes)P(cool|yes)P(high|yes)P(strong|yes)=0.0053 P(no)P(sunny|no)P(cool|no)P(high|no)P(strong|no)=0.0206 vNB=no NB算法的不足及改进 学习NB分类器固然简单,但其不现实的属性条件独立假设严重影响了它的分类性能。所以学习最优的BN分类器引起了广大研究者的兴趣,遗憾的是,这是一个NP难问题。 因此,学习改进的NB分类器才是真正可行的,最近的研究成果几乎都是这样产生的。 NB算法的不足及改进(续) 改进的方法当然就是最大限度地释放朴素贝叶斯网络的属性条件独立假设。具体方法分三类: 1)选择属性子集,如SBC、WRAP和ENB等; 2)拓展朴素贝叶斯网络的结构,用有向边来表达属性之间的依赖关系,如TAN、SP-TAN和ODANB等; 3)利用局部学习的原理,在整个训练实例的局部构建朴素贝叶斯网络分类器,如NBTree、LWNB和SNNB等。 概率估计 概率估计 我们通过在全部事件基础上观察某事件出现的比例来估计概率 当样本很小时,采用平滑技术 Laplace estimation M-estimation m是一称为等效样本大小的常量,如1、2、…等。p是将要确定的概率的先验估计,在缺少其他信息时,选择p的一种典型的方法是均匀概率,比如某属性有k个可能值,那么p=1/k M-es
文档评论(0)