信息论编码的填空题.docVIP

  • 6
  • 0
  • 约4.44千字
  • 约 9页
  • 2020-02-25 发布于安徽
  • 举报
. . . . 1、信息论的三大要素是: 信源;信道;信宿 2、一个随机事件的不确定度是指: 自信息量 3、某事件发生的概率是0.5,则这个事件的信息量是: 1bit 。 4、编码调制的两条基本途径是: 概率均化;解除相关性 5、一个全损离散信道的信道容量是: 0bit/符号 。 6、已知一个离散信源有8个符号,每个符号出现的概率均一样,则该信源的信源熵是: 7、信息表达可通过哪三层实现: 消息;信息;信号 8、(N、K)线性码的任意一个码字C与校验矩阵H的关系是: 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 必然事件的自信息是 0 。 离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。 对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是 香农编码 。 已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。 平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。 18、离散平稳有记忆信源的极限熵,。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a) 。 22、对于限峰值功率的N维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率 之比 。 25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:。 27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log218(1+2 log23)。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 。 31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。

文档评论(0)

1亿VIP精品文档

相关文档