- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论课件2-2-3~5
* 方法2:逐个检查 第1次: x1坏,获得信息量=3bit,可能性较小1/8; x1通,其余7只中1只坏,坏灯泡的不确定性:log27=2.8073bit 获得信息量=3-2.8073=0.1927bit,可能性较大7/8 第1次所获得的平均信息量: “对半开” 第1次所获得的平均信息量: bit bit * 互信息量 在有3个变量的情况下,符号xi、yj 、 zk之间的互信息量。 1、符号xi与符号对(yj , zk)之间的互信息量为 2、在已知事件zk的条件下,接收到yj后获得关于某事件xi的条件互信息为 * 互信息量 在有3个变量的情况下,符号xi与符号yj , zk之间互信息量的关系 说明:一个联合事件(yj zk)出现后所提供的有关xi的信息量I(xi;yj,zk)等于zk事件出现后提供的有关xi的信息量I(xi;zk),加上在给定zk条件下再出现yj事件后所提供的有关xi的信息量 I(xi;yj|zk)。 * (1) (2) (3) * 三维联合集XYZ上的平均互信息量 * 在N维U1 U2 … UN联合空间,有: * 平均互信息与各类熵的关系 熵只是平均不确定性的描述; 不确定性的消除(两熵之差)才等于接收端所获得的信息量。 获得的信息量不应该和不确定性混为一谈 * 维拉图 H(X|Y) H(X) H(Y) H(XY) H(Y|X) I(X;Y) * 条件熵 H(X|Y):信道疑义度,损失熵 信源符号通过有噪信道传输后所引起的信息量的损失。 信源X的熵等于接收到的信息量加上损失掉的信息量。 H(Y|X):噪声熵,散布熵 它反映了信道中噪声源的不确定性。 输出端信源Y 的熵H(Y)等于接收到关于X的信息量I(X;Y)加上H(Y|X),这完全是由于信道中噪声引起的。 * 收发两端的熵关系 I(X;Y) H(X) H(Y) H(X/Y)疑义度 H(Y/X)噪声熵 * 若信道是无噪一一对应信道,信道传递概率: 计算得: * 若信道输入端X与输出端Y完全统计独立 则: * 【例】已知信源消息集为X={0,1},接收符号集为Y={0,1},通过有扰信道传输,其传输特性如图所示,这是一个二进制对称信道BSC。已知先验概率 , 计算平均互信息量I(X;Y)及各种熵。 0 1-ε 0 1 1-ε 1 图 二进制对称信道 ε ε 记 q(x)为信源输入概率;q(0)=q(1)=0.5 ω(y)为信宿输出概率; p(y︱x)为信道转移概率; φ(x︱y)为后验概率。 * (1)由图得 ,先算出p(xi yj)= q(xi)p(yj︱xi) (2)计算 得: * (3) 计算后验概率,得: (4)计算各种熵及平均互信息量: 信源熵 信宿熵 联合熵 = -2 × 0.5 (1-ε) log 0.5(1-ε)-2 × 0.5εlog 0.5ε = log2 - (1-ε) log (1-ε)-εlogε = log2 + H 2 (ε) 式中: * 散布度 = -p(00) log p(0︱0)-p(01) log p(1︱0)-p(10) log p(0︱1)-p(11) log p(1︱1) = -2 × 0.5 (1-ε) log (1-ε)-2 × 0.5εlogε= H 2 (ε) 可疑度 = -p(00) logφ(0︱0)-p(01) logφ(0︱1)-p(10) logφ(1︱0)-p(11) logφ(1︱1) = -2 × 0.5 (1-ε) log (1-ε)-2 × 0.5εlogε= H 2 (ε) 平均互信息量 I(X ; Y)= H(X)+ H(Y)- H(XY) = log2 + H 2 (ε) * 第一级处理器 第二级处理器 X Y Z 输入 级联处理器 2.2.4 数据处理中信息的变化 数据处理定理 : 当消息通过多级处理器时,随着处理器数目增多,输入消息与输出消息间的平均互信息量趋于变小 假设Y条件下X和Z相互独立 证明: 图中:X是输入消息集合
您可能关注的文档
- 专题三物质推断.doc
- 九年级英语期中质量检测题.doc
- 二年级(下)语文4—6单元单元目标评价实验资料(北师大).doc
- 乙烯111111.ppt
- 二衬砼表面缺陷修复.doc
- 五味子与肝纤维化MicrosoftOfficeWord文档.doc
- 低压电器-配网班教案(2004-10-17).doc
- 你的汗水洒在跑道.doc
- 佩尔哲物流部实习心得.doc
- 佳木斯财富国际楼书文案.doc
- 8 黄山奇石(第二课时)课件(共22张PPT).pptx
- 22《纸船和风筝》教学课件(共31张PPT).pptx
- 17 松鼠 课件(共23张PPT).pptx
- 23《海底世界》课件(共28张PPT).pptx
- 21《大自然的声音》课件(共18张PPT).pptx
- 第12课《词四首——江城子 密州出猎》课件 2025—2026学年统编版语文九年级下册.pptx
- 第2课《济南的冬天》课件(共42张PPT) 2024—2025学年统编版语文七年级上册.pptx
- 17 跳水 第二课时 课件(共18张PPT).pptx
- 第六单元课外古诗词诵读《过松源晨炊漆公、约客》课件 统编版语文七年级下册.pptx
- 统编版六年级语文上册 22《文言文二则》课件(共27张PPT).pptx
原创力文档


文档评论(0)