- 1、本文档共28页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第6章 贝叶斯学习 贝叶斯法则 给定训练数据集D,确定假设空间H中的最佳假设 什么是最佳假设? 在给定数据集D的基础上,H中不同假设里发生概率最大(最可能发生)的一个 贝叶斯法则可以通过直接计算找到这种最可能性 贝叶斯公式 P(h):h的先验概率(prior probability),反映了事先拥有的关于h的背景知识 P(D):得到的训练数据D的先验概率 P(D|h):若h成立,则观察到D的概率 P(h|D):给定训练数据D时,h成立的概率 公式分析 P(h|D)称为后验概率,相对于先验概率 如果D独立于h时被观察到的可能性越大,那么D对h的支持度也越小 如果h的先验概率越大,则在数据D的条件下出现h的可能性也越大 求每一假设h的P(h|D),取其中最大者,为MAP假设(maximum a posteriori) 基本概率公式 两事件A和B交的概率: 两事件A和B并的概率: 给定D时h的后验概率: 全概率法则: 若事件互斥且 则 6.1 简介 贝叶斯学习提供了一种推理的概率手段: 即待考查的量遵循某种概率分布 且可根据这些概率及已观察到的数据进行推理 以作出最优决策 贝叶斯学习为直接操作概率的学习算法提供了基础 贝叶斯学习也为其他算法的分析提供了理论框架 贝叶斯学习与机器学习的关系 贝叶斯学习算法能够显式计算假设的概率 朴素贝叶斯分类器 利用朴素贝叶斯分类器分类进行文本文档分类 为理解许多算法提供了有效手段,这些算法不一定直接操纵概率数据 在使用神经网络训练收敛判据时,可以选择比误差平方和最小原则更合适的交叉熵原则 贝叶斯学习方法的特性 观察到的每个训练样例可以增量地降低或增高某假设的估计概率 先验知识可以与观察数据一起决定假设的最终概率 两类先验知识:候选假设的先验概率;每个可能假设在可观察数据中的概率分布 允许假设做出不确定性的预测 新实例可以由多个假设的概率加权和确定 重要的算法评价理论依据 举例 医疗诊断问题 做决定:(1)得癌症;(2)无癌症 诊断依据:某化验测试,测试结果为+或- 先验知识: 所有人口中此癌症的发生概率为0.008 测试有病的准确率为0.98 测试无病的准确率为0.97 现在,某病人测试结果为+,问是否可以确诊此病人有病? 举例 假设在某种病症的化学检测中: 对有病的病人,检验的阳性率为95% 对没病者,检验的阳性率为5% 该病的发病率为0.5% 现在随便从街上拉一个人做检测,结果阳性,问此人患此病的概率是多少? 贝叶斯学习 利用贝叶斯法则进行概念学习 给定训练数据下求后验概率 从先验概率到后验概率的概率改变体现学习效果 BRUTE-FORCE贝叶斯概念学习 对于H中每个假设h,计算后验概率 输出有最高后验概率的假设hMAP 贝叶斯最优分类器 前面讨论问题:给定训练数据,最可能的假设是什么 需讨论的问题:给定训练数据,对新的实例的最可能分类是什么 可以直接利用MAP假设来分类新实例 也有更好的算法 6.7 贝叶斯最优分类器 MAP假设分类的问题 P125 新实例的最可能分类应该通过合并所有假设的预测得到 即 用后验概率来加权 贝叶斯最优分类器(Bayes Optimal Classifier): 分类结果可以对应于H中不存在的假设 P126 6.8 GIBBS算法 基于给定训练数据,贝叶斯最优分类器可以给出最好性能 但计算开销很大 GIBBS算法: 按照H上的后验概率分布,从H中随机选取假设h 使用h来处理待分类实例 误分类率:最多为贝叶斯最优分类器的两倍 6.9 朴素贝叶斯分类器 实用性很高的算法 学习任务: 每个实例x由属性的合取表示 目标函数f(x)从有限集会V中取值 学习器根据提供的一系列关于目标函数的训练样例以及新实例(属性值的元组),给出新实例的分类 6.9 朴素贝叶斯分类器 举例: 根据天气情况判断某人是否会打网球 朴素贝叶斯分类器 是否将要打网球? 4个天气属性 Outlook Temperature Humidity Wind 对新实例进行预测:yes or no 举例: 学习分类文本 朴素贝叶斯分类器 问题框架 目标:要求计算机学习从大量的在线文本文档中自动过滤出最相关文档给读者 目标值:like 和 dislike 每个位置上的每个单词定义为一个属性值 简化: 每个属性的条件概率相互独立 特定单词出现的概率独立于单词所在的位置 6.11 贝叶斯信念网 最优贝叶斯分类器要求考虑每个属性与其他属性的关系,太繁琐,而且不现实 朴素贝叶斯分类器要求每个属性的条件概率相互独立,限制太严格 折中:贝叶斯信念网 比朴素贝叶斯分类器限制少 比最优贝叶斯分类器切实可行 EM算法 用处:变量的值从来没有直接观察到的情况 问题:估计k个高斯分布的均值 EM算法的一般表述 K均
文档评论(0)