人工智能不确定性推理.pptVIP

  1. 1、本文档共57页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人工智能不确定性推理.ppt

* * * * * * * * * * * * * * * * * * * * * * * * * * * * 3. 不确定性的传递算法 不带加权因子时: CF(H)=[(1-max{0,cf1-cf’1})×(1-max{0,cf2-cf’2})×…×(1-max{0,cfn-cf’n})]×CF(H,E) 带加权因子时: CF(H)=[(ω1×(1-max{0,cf1-cf’1}))×(ω2×(1-max{0,cf2-cf’2}))×…×(ωn×(1-max{0,cfn-cf’n}))]×CF(H,E) * 优点: 简单、直观。 缺点: 可信度因子依赖于专家主观指定,没有统一、客观的尺度,容易产生片面性。 可信度数字上的语义不标准。 随着推理延伸,可信度越来越不可靠,误差越来越大。当推理深度达到一定深度时,有可能出现推出的结论不再可信的情况。 * 待续…… * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 逆概率法在实际中有很多应用。比如:把Hi (i=1,2,…,n)当作可能发生的疾病;把Ej (j=1,2,…,n)当作相应的症状;P(Hi)是从大量实践中得到的疾病Hi的先验概率;P(Ej|Hi)是疾病Hi发生时观察到症状Ej的条件概率。则当对某病人观察到有症状E1,E2,…,Em时,应用上述Bayes公式就可计算出P(Hi|E1E2…Em),从而得知病人患疾病Hi的可能性。 优点: 逆概率法有较强的理论背景和良好的数学特性,当证据及结论都彼此独立时计算的复杂度比较低。 缺点: 逆概率法要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej|Hi)。尽管有些时候P(Ej|Hi)比P(Hi|Ej)相对容易得到,但仍然相当困难。另外Bayes公式的应用条件很严格。 * * 在主观Bayes方法中,证据的不确定性也用概率表示。对于证据E,由用户根据观察S给出P(E|S),即动态强度。 由于主观给定P(E|S)有所困难,所以实际中可以用可信度C(E|S)代替P(E|S)。例如在PROSPECTOR中C(E|S)和P(E|S)遵从如下关系: * 可以采用最大最小法。 当组合证据是多个单一证据的合取时,即 E=E1 AND E2 AND … AND En 则:P(E|S)=min{P(E1|S),P(E2|S),…,P(En|S)} 当组合证据是多个单一证据的析取时,即 E=E1 OR E2 OR … OR En 则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)} 对于“?”运算则: P(?E|S)=1-P(E|S) * 主观Bayes方法推理的任务就是根据证据E的概率P(E)及LS、LN的值,把H的先验概率P(H)更新为后验概率P(H|E)或P(H|?E)。即 确定后验概率的方法随着证据肯定存在,肯定不存在,或者不确定而有所不同。 * 引入几率函数Θ(x),它与概率的关系为: Θ(x)=P(x)/(1-P(x)), P(x)=Θ(x)/(1+Θ(x)) 在证据肯定存在时,P(E)=P(E|S)=1。 由Bayes公式得: P(H|E)=P(E|H)×P(H)/P(E) (1) P(?H|E)=P(E|?H)×P(?H)/P(E) (2) (1)式除以(2)式得: P(H|E)/P(?H|E)=P(E|H)/P(E|?H)×P(H)/P(?H) 由LS和几率函数的定义得: Θ(H|E)=LS×Θ(H) 即 P(H|E)=LS×P(H)/[(LS-1)×P(H)+1] * 在证据肯定不存在时,P(E)=P(E|S)=0, P(?E)=1。 由Bayes公式得: P(H|?E)=P(?E|H)×P(H)/P(?E) (1) P(?H|?E)=P(?E|?H)×P(?H)/P(?E) (2) (1)式除以(2)式得: P(H|?E)/P(?H|?E)=P(?E|H)/P(?E|?H)×P(H)/P(?H) 由LN和几率函数的定义得: Θ(H|?E)=LN×Θ(H) 即 P(H|?E)=LN×P(H)/[(LN-1)×P(H)+1] * 当0P(E|S)1时,应该用杜达等人1976年证明的下述公式计算后验概率P(H|S): P(H|S)=P(H|E)×P(E|S)+P(H|?E)×P(?E|S) 当P(E|S)=1时,证据肯定存在。 当P(E|S)=0时,证据肯定不存在。 当P(E|S)=P(E)时,证据E与观察S无关。由全概率公式得: P(H|S)=P(H|E)×P(E)+P(H|?E)×P(?E)=P(H) 当P(E|S)为其它值时,通过分段线性插值计算P(H|S),即 * 当LS1时, Θ(H|E)=LS×

文档评论(0)

love + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档