- 1、本文档共26页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
电子科技大学 * 信源消息是多种多样的:如计算机网络节点输出的是二进制数据,模拟电视输出的是连续视频图像和伴音;又如抽牌,可以抽出后放回去再抽,也可以抽出后不放回去再抽。 信源的分类方法可以很多,但从本质上考虑,一方面将信源分为离散信源和连续信源(continuous source),另一方面 第3章 离散信源及离散熵 将信源分为无记忆信源(memoryless source)和有记忆信源(memory source)。 从一个离散信源的整体出发,它的信息量应该如何度量? 本章主要讨论离散无记忆信源。 从最简单的单符号离散信源开始讨论: 1、单符号离散信源的数学模型 一、单符号离散信源的离散熵 如果说自信息量反映的是一个随机事件出现各种结果所包含着的信息量,那么 自信息量的数学期望(概率加权的统计平均值)所反映的是该随机事件出现所包含的平均自信息量。 如果将离散信源所有自信息量的数学期望用H(X)来表示并称其为信源的离散熵,也叫香农熵,离散熵的定义为: 离散熵的单位是比特/符号(bit/symbol)。 2、单符号离散信源的离散熵 离散熵是从整体出发对一个离散信源信息量的度量。 需要注意,平均自信息量和离散熵虽然在数值上相同,但在含义上却有区别: 平均自信息量所反映的仅仅是信源输出X所包含的平均自信息量,是消除信源不确定度所需要的信息的度量; 换句话说,平均自信息量只有在信源输出时才有意义,而离散熵则不管信源输出与否都有意义。 离散熵则既反映了信源输出X所包含的平均自信息量,是消除信源不确定度所需要的信息的度量,同时又描述了信源的平均不确定度。 3、离散熵的性质和定理 ①H(X)的非负性; ②H(X)的上凸性; H(X)的上凸性不作证明。 ③最大离散熵定理 例1,求掷骰子这一信源的离散熵。 解:该信源的数学模型为 解: 该信源的数学模型为: 例2,求某一天简单的天气气象这一信源的离散熵。 例3,已知信源 求离散熵并作出p-H(p)曲线。 解: 0 0.5 1 H(p) 1 p 当p=0时,H(p)=0 p=0.25时,H(p)=0.811 p=0. 5时,H(p)=1 p=0.75时,H(p)=0.811 p=1时,H(p)=0 二、多符号离散信源及其离散熵 如果信源每次发出的消息都是有限或可数的符号序列,而这些符号都取值于同一个有限或可数的集合,则称这种信源为多符号离散信源。 实际上,信源每次发出的消息是符号序列的情况更为普遍。 多符号离散信源的例子有电报、文字等。 一般情况下,信源在不同时刻发出符号的概率分布是不同的,即 将多符号离散信源发出的符号序列记为 并设序列中任一符号都取值于集合 这种情况分析起来比较困难,不作讨论。 对于多符号离散信源发出的符号序列 1、离散平稳信源及其数学模型 如果任意两个不同时刻k和l,k=1,2, …,l=1,2, …,其概率分布相同,即 则称该多符号离散信源为一维离散平稳信源。 如果不仅其概率分布相同,其二维联合概率分布也相同,即 则称该多符号离散信源为二维离散平稳信源。 同理,如果除概率分布相同外,直到N维的各维联合概率分布也都与时间起点无关,即 则称该多符号离散信源为N维离散平稳信源。 一般,可将N维离散平稳信源发出的符号序列看成长度为N的一段段符号序列,即 N维离散平稳信源的数学模型: 其联合概率分布为 * * 电子科技大学
文档评论(0)