贝叶斯网络结构学习算法研究计算机科学与技术专业论文.docxVIP

贝叶斯网络结构学习算法研究计算机科学与技术专业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
贝叶斯网络结构学习算法研究计算机科学与技术专业论文

摘要贝叶斯网络提供了一种表示因果关系的方法。它结合图模型理论和 摘要 贝叶斯网络提供了一种表示因果关系的方法。它结合图模型理论和 统计学来表达随机变量之间的不确定性知识,并高效地执行推理任务。 最近20多年来,贝叶斯网络学习一直是人工智能和机器学习领域中一个 非常活跃的研究课题,并且提出了许多经典高效的算法。尽管这些方法 都获得了很好的性能,但是当面对有限数据集或高维数据集时,这两类 方法在学习的准确性和效率上都存在缺限。本文的主要贡献如下: 1)最大相关一最小冗余贪婪贝叶斯网络学习算法 结点有序情况下,改进了K2算法,使它适用于高维小采样数据集。 引入最大相关一最小冗余特征选择技术,提出局部贝叶斯增量函数以控制 所学贝叶斯网络结构的复杂度。实验结果表明,在小采样数据集上,该 方法在准确性上优于K2算法。 未知结点次序情况下,引入了基于结点次序的启发式搜索,提出一 个新颖的候选父结点集合产生方法。同时,我们也引入了最大相关一最小 冗余特征选择技术和局部贝叶斯增量函数,使之适用于小采样数据集。 实验结果表明,在小采样数据集上,该方法在准确性上优于现有算法。 2)基于集成方法的贝叶斯网络学习算法 提出一类学习贝叶斯网络的高效算法。该方法把集成学习应用到贝 叶斯网络学习算法中,学习到一个更加准确的贝叶斯网络。 提出基于增量采样的贝叶斯网络集成学习算法。基于贝叶斯网络学 习的因果马尔科夫属性,提出基于根结点的增量采样技术和相应的组件 集成技术。 提出基于采样分解的贝叶斯网络集成学习算法。基于贝叶斯网络学 习的因果马尔科夫属性,提出基于根结点的采样分解技术和相应的组件 集成技术。 实验结果表明,在有限数据集上,这两类集成贝叶斯网络结构学习 方法在准确性上优于现有算法。 3)关联规贝,lj-贝叶斯网络集成学习算法 提出基于启发式2层计数的频繁项集挖掘算法。提出一个新颖的2 层频繁项集生成方法,大大减少了数据集的遍历次数。在每次数据集遍 历过程中,提出启发式遍历技术,减少了数据集遍历时间。实验结果表 贝叶斯网络结构学习算法研究明,在高维松散大数据集上,效率上优于Apfiofi算法。 贝叶斯网络结构学习算法研究 明,在高维松散大数据集上,效率上优于Apfiofi算法。 提出基于启发式2层计数的频繁项集一贝叶斯网络集成学习算法。 该算法把频繁项集挖掘算法应用到贝叶斯网络学习的得分搜索方法中, 利用频繁项集限制贝叶斯网络结构搜索空间,提高了网络结构空间的搜 索效率。实验结果表明,在高维松散大数据集上,本集成算法在效率和 准确性上优于传统的贝叶斯网络学习方法。 4)贝叶斯网络在通信领域的应用初探 对客户流失预测分析问题进行了初步探索,初步提出一个基于贝叶 斯网络的主动流失客户预测分析模型。 关键词贝叶斯网络特征选择集成学习 关联规则最大相关一 最小冗余采样技术 AbstractBayesian Abstract Bayesian network(BN)is an important method for presenting causality and uncertainty among random variables based on graphical model theory and statistics.It can effectively reason under uncertainty and take decisions. During the last two decades,many BN learning algorithms have been proposed.Although encouraging results have been reported,the two approaches both suffer some difficulties in accuracy and efficiency on limited datasets or high dimensional datasets.To further enhance learning accuracy or e衔ciency,this dissert presents the following contributions: 1)Max—Relevance and Min-Redundancy greedy(MRMRG)BN learning algorithms Given all ordering among nodes,MRMRG algorithm is an variant of K2 algorithm for learning BN on

您可能关注的文档

文档评论(0)

131****9843 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档