贝叶斯决策分析.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
5.4.1 决策法则 例5.1中,有两个行动方案:a1 为生产该新产品,a2 为不生产该新产品。 有两种补充信息:畅销(H1)和滞销 (H2) 共有4种决策法则: 按照期望收益值最大原则选出的最佳决策法则是δ2(H)。 §5.4 贝叶斯风险和贝叶斯原则 5.4.2 贝叶斯风险 设贝叶斯决策法则δ(τ),对于状态变量θ的任一值,当补充信息值τ确定后,行动方案a= δ(τ) 也就相应确定,则对应的损失值为R(δ(τ),θ),损失值越小,决策法则越优。 风险函数ρ(δ,θ):损失值R(δ(τ),θ)对所有补充信息值的τ数学期望。 §5.4 贝叶斯风险和贝叶斯原则 5.4.2 贝叶斯风险 风险函数ρ(δ,θ)是在状态值θ下,决策法则δ对全部补充信息值的平均损失。 例5.1中,损失矩阵为 决策法则δ1(H)=a1 的风险函数值为: 5.4.2 贝叶斯风险 决策法则δ2(H)的风险函数值为: 同理可求出决策法则δ3(H)和δ4(H)的风险函数值: §5.4 贝叶斯风险和贝叶斯原则 5.4.2 贝叶斯风险 贝叶斯风险 B(δ) 对决策法则δ,风险函数ρ(δ,θ)对状态θ的数学期望,称为决策法则δ的贝叶斯风险。 贝叶斯风险B(δ)是一个常数,表示决策法 则δ,对一切补充信息值τ和状态值θ的平均损失值。 5.4.2 贝叶斯风险 例5.1中: 同理可求出决策法则B(δ2)、B(δ3)和B(δ4) §5.4 贝叶斯风险和贝叶斯原则 5.4.3 贝叶斯原则 以贝叶斯风险作为评价决策法则优劣的原则称为贝叶斯原则。 (以贝叶斯风险小的决策法则为优) 最佳决策法则:在贝叶斯原则下,贝叶斯风险最小的决策法则称为最佳决策法则。 如例5-1中: B(δ2)<B(δ1)<B(δ4)<B(δ3) 因此:最优决策法则为δ2,这与之前贝叶斯决策的结论完全一致。 §5.4 贝叶斯风险和贝叶斯原则 5.4.3 贝叶斯原则 可以证明:贝叶斯决策所得到的决策法则,就是贝叶斯原则下的最佳决策法则。 并且,最佳决策法则的贝叶斯风险等于完全信息价值与补充信息价值之差(后验完全信息价值)。 即: B(δopt)=EVPI-EVAI p132例5.2  3、验后分析: 通过试销,该企业可获得的收益期望值为: 该企业收益期望值能增加: 只要试销所需费用不超过3万元,就应该进行市场调查;否则,则不应进行试销。 p132例5.2 3、验后分析: 在试销费用不超过3万元的情况下,进行试销,能使该企业新产品开发决策取得较好的经济效益;若试销费用不超过3万元,则不应进行试销。 若试销结果是该产品需求量大或一般,则应该选择方案a1,即引进大型设备; 若调查结果是该产品需求量小,则应该选择方案a3,即引进小型设备。 §5.2  贝叶斯决策信息的价值 从前面的分析看出,利用补充信息来修正先验概率,可以使决策的准确度提高,从而提高决策的科学性和效益性。因此,信息本身是有价值的—能带来收益。 但获得的情报越多,花费也更多。 因此有一个获取补充信息是否有利的问题:收益与成本的比较。 问题:如何衡量信息的价值? §5.2  贝叶斯决策信息的价值 5.2.1 完全信息的价值(EVPI) 完全情报:指能够提供状态变量真实情况的补充信息。即在获得补充情报后就完全消除了风险情况,风险决策就转化为确定型决策。 1.完全信息值 设Hi 为补充信息值,若存在状态值θ0,使得条件概率P(θ0/ Hi)=1 ,或者当状态值 θ≠θ0时,总有P(θ/ Hi)=0 。则称信息值Hi为完全信息值。(补充信息可靠性100%) 5.2.1 完全信息的价值(EVPI) 2.完全信息值Hi的价值 设决策问题的收益函数为Q=Q(a,θ),其中a为行动方案,θ为状态变量。 若Hi为完全信息值,掌握了Hi的最满意的行动方案为a(Hi) ,其收益值为 Q(a(Hi),θ)=maxQ(a,θ) 验前最满意行动方案为aopt ,其收益值为Q(aopt ,θ),则称掌握了完全信息值Hi前后的收益值增量: 为在状态变量为θ时的完全信息值Hi的价值。 5.2.1 完全信息的价值(EVPI) 3.完全信息价值 如果补充信息值 Hi对每一个状态值θ都是完全信息值,则完全信息值Hi 对状态θ的期望收益值称为完全信息价值的期望值(expected value of perfect information),简称完全信息价值,记做EVPI。 5.2.1 完全信息的价值(EVPI) 在例5.1中 如果补充信息(咨询公司市场调查)的准确度很高,预测畅销,则100%畅销;预测滞销,则100%滞销;这时: P(θ1/ H1)=1, P(θ2/ H1)= 0 P(θ1/ H2)=0, P(θ2/ H2)= 1 则H1(咨询公司

文档评论(0)

人生新旅程 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档