第2章 信源与信息熵1.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第2章 信源与信息熵1

第二章 信源及信源熵 本章重点:离散/连续信源熵和互信息 本章难点:离散序列有记忆信源的熵 2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 连续信源的熵和互信息 2.4 离散序列信源的熵 2.5 冗余度 离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。 离散有记忆信源所发出的各个符号的概率是有关联的。 发出单个符号的信源是指信源每次只发出一个符号代表一个消息。 发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。 发出符号序列的有记忆信源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。 发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。 举例 例1. 二进制对称信源输出0的概率是p,则其概率空间怎样描述? 例2. 随机掷一个无偏骰子,可能出现的点数与其概率分布是什么? 例3. 同时掷一对质地均匀的骰子,要得知  “两骰子面朝上点数之和”描述这一信源的数学模型分别是什么。 问题: 什么叫不确定度? 什么叫自信息量? 什么叫平均不确定度? 什么叫信源熵? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么? 什么叫后验概率? 什么叫互信息量? 什么叫平均互信息量? 什么叫疑义度? 什么叫噪声熵(或散布度)? 数据处理定理是如何描述的? 熵的性质有哪些? 必须掌握的概率论知识 [转化] 设X取值{ x1, x2, …,xi, … ,xn}, Y取值{ y1, y2, …,yj, … ,ym},则 *联合概率p(xiyj) ——X 取值xi ,Y 取值yj同时成立的概率 *条件概率p(yj/xi)——X 取值xi 条件下,Y 取值yj的概率 *条件概率p(xi/yj)——Y 取值yj条件下,X取值xi的概率 思考例题 已知信源X包含x0、x1两种消息,其出现概率 p(x0)=p(x1)=0.5 ,这两种消息在有干扰的二 元离散信道上传输。信宿Y收到的消息集合Y 包含y0、y1两种消息,给定信道的传输概率: p(y0/x0)=0.98, p(y1/x0)=0.02; p(y0/x1)=0.2, p(y1/x1)=0. 8。 求:在该信道上传输的 (1)平均互信息量; (2)可疑度; (3)噪声熵。 单符号离散信源的数学模型 符号(消息)xi—随机事件—不确定性(概率角度) p(xi)——X取值xi的概率(先验概率) 1.自信息量 [定义] 若信源发出符号xi,由于信道无干扰,收到的就 是xi本身,用I(xi; xi)表示,或简单记作I(xi),并 称为自信息量。一个随机事件的自信息量定义为 其出现概率对数的负值。即: I(xi)= –log?p(xi) bit (nat, det / Hart) [单位]自信息量的单位与所用对数的底有关: 2 ,单位为比特 — bit(binary unit) e ,单位为奈特— nat(nature unit) 10,单位为笛特或哈特— det (decimal unit) or Hart (Hartley) [常用单位] bit, 对应符号log2 、 log 、 lb [单位换算] 1 nat = log2 e ≈ 1.4427 bit 1 det = log2 10≈ 3.322 bit [含义] ①事件xi发生以前,表示事件发生的先验不确定性 ②当事件xi发生以后,表示事件xi所能提供的最大信息量 (在无噪下) [性质] I(xi)= –log2 p(xi) ,I(xi)是xi的函数,是一个随机量 ①当p(xi) =0时, I(xi) →∞ ,不可能事件 当p(xi) =1时, I(xi) →0 ,确定事件 ②非负性 ③单调递减性 ④可加性 I(xiyj) = I(xi

文档评论(0)

xxj1658888 + 关注
实名认证
文档贡献者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2024年04月12日上传了教师资格证

1亿VIP精品文档

相关文档