- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
信息熵PPT
* * 信息熵 熵 条件熵 联合熵 1.信息熵 2.1.2 信息熵 已知单符号离散无记忆信源的数学模型 定义:各离散消息自信息量的数学期望,即信源的平均信息量。 信源的信息熵;香农熵;无条件熵;熵函数;熵 单位:比特/符号 例:某地二月份天气构成的信源为 由定义,该信源的熵为 总括起来,信源熵有三种物理含义: 信源熵H(X)表示信源输出后,离散消息所提供的平均信息量。 信源熵H(X)表示信源输出前,信源的平均不确定度。 信源熵H(X)反映了变量X的随机性。 1 2 3 例:有三个信源X,Y,Z,其概率空间为 可见 H(X)H(Y)H(Z),信源符号的概率分布越均匀,则平均信息量越大,信源X比信源Y平均信息量大,Z是确定事件,不含有信息量。 例:有一篇千字文章,假定每个字可从一万个汉字中任选,则共有不同的千字文篇数为N=100001000=104000篇,按等概计算,平均每篇千字文可提供的信息量? 2.条件熵 思考:求条件熵时为什么要用联合概率加权? 例:已知X,Y∈{0,1},XY构成的联合概率为:p(00)=p(11)=1/8,p(01)=p(10)=3/8,计算条件熵H(X/Y)。 3.联合熵 1 2.1.3 信息熵的性质 证明:随机变量X的概率分布满足0≤p(xi)≤1, log2p(xi) ≤0,所以H(X)≥0 因每一项非负,所以必须是每一项为零等号才成立。 此时只有p(xi)=0或p(xi)=1 时上式才成立,而 所以只能有一个p(xi)=1,而其他p(xk)=0(k≠i)。这个信源是一个确知信源,其熵等于零。 非负性 H(X) ≥ 0 其中等号成立的充要条件是当且仅当对某i,p(xi)=1,其余的p(xk)=0(k≠i)。 对称性 2 当变量 p(x1),p(x2),…,p(xn) 的顺序任意互换时,熵函数的值不变,即 信源中包含n个不同离散消息时,信源熵H(X)有 当且仅当X中各个消息出现的概率全相等时,上式取等号。 最大离散熵定理 3 证明:自然对数具有性质 对于单符号离散信源,当信源呈等概率分布时具有最大熵。 确知信源的不确定度为零。 确定性 4 可加性 5 6 香农辅助定理和极值性 对于任意两个消息数相同的信源X和Y,i=1,2,…,n,有 含义:任一概率分布对其他概率分布的自信息量取数学期望,必大于等于本身的熵。 由上式可证明条件熵小于等于等于无条件熵,即H(X/Y)≤H(X) 二进制通信系统用符号“0”和“1”,由于存在失真,传输时会产生误码,用符号表示下列事件: u0:一个“0”发出;u1:一个“1”发出; v0:一个“0”收到;v1:一个“1”收到; 给定下列概率:p(u0)=1/2,p(v0/u0)=3/4,p(v0/u1)=1/2,求 (1)已知发出一个“0”,收到符号后得到的信息量; (2)已知发出的符号,收到符号后得到的信息量; (3)知道发出的和收到的符号能得到的信息量; (4)已知收到的符号,被告知发出的符号能得到的信息量; 作业:2.3 2.4
您可能关注的文档
最近下载
- 留守儿童学前教育毕业论文.docx VIP
- 热处理炉温均匀性测试标准SAE AMS2750F Rev.F 2020 英文版+中文版.pdf VIP
- 输入11到20带圈字符.doc VIP
- 固体比热容的测量.doc VIP
- 翻车机值班员岗位职责共3篇翻车机操作工岗位职责.docx VIP
- 【新教材】人教版(2024)八年级上册英语Unit 6 Plan for Yourself教案(表格式).docx
- 植筋、界面处理检验批质量验收记录表.doc VIP
- 实用营养与保健知到课后答案智慧树章节测试答案2025年春浙江大学.docx VIP
- 泌尿系结石PPT课件PPT课件.ppt
- 标准图集-20S515-钢筋混凝土及砖砌排水检查井.pdf VIP
原创力文档


文档评论(0)