量子信息学导论 课件 第3、4章 量子信息论基础、 量子密码术.pptx

量子信息学导论 课件 第3、4章 量子信息论基础、 量子密码术.pptx

第3章量子信息论基础;

信息论是通信的数学基础,它通过数学描述与定量分析来研究通信系统的有效性、安全性和可靠性,包括信息的测度、信道的容量、信源和信道编码理论等问题。经典通信的基础是香农信息论,香农信息论已发展得比较成熟;量子通信的数学基础是量子信息论,而量子信息论还处在发展过程中。;

3.1熵与量子信息的测度;

3.1.1经典香农熵

香农熵是经典信息论中的基本概念。对于随机变量X,它具有不确定性,可以取不同值:x1,x2,…xn。X的香农熵即测到X的值之前关于X的不确定性的测度,也可以视为测到X值之后我们得到信息多少的一种平均测度。;

定义3.1设对随机变量X,测到其值为x1,x2,…xi,…,xn,概率分别为P1,P2,…,Pi,…,Pn,则与该概率分布相联系的香农熵定义为

其中Pi是测到xi的概率。

必须强调的是,这里对数是以2为底的,因此熵的单位是比特,且约定为01b0=0;另外,概率满足;

例如,投掷两面均匀的硬币,每面出现的概率为1/2,其相应熵为

若投掷均匀的四面体,则熵为

一般地,如果随机变量取两个值,概率分别为p与1-p,则给出熵为

人们称它为二元熵。;

二元熵函数与概率P的关系如图3.1所示。可以看出,当P=1/2时,H2(P)取最大值,为1。;

二元熵为理解熵的一些性质提供了一个容易掌握的实例。例如,可以用它来讨论两个概率分布混合时系统的行为。

设想Alice有两个硬币,一个是美元,另一个是人民币,两硬币都不均匀,两面出现的概率不是1/2,设美元正面出现的概率为PU,人民币正面出现的概率为PC,假定Alice投美元的概率为Q,投人民币的概率为1-Q,Alice告诉Bob正面或反面,平均而言Bob获得多少信息?其获得的信息会大于或等于单独投美元和人民币获得的信息,数学表示为;;

定义3.2如果一个实函数f满足以下关系:

其中,0≤P,x、y≤1,则称函数具有凹性。

一般信息熵都具有凹性。若不等式(3.4)反过来,则称函数f具有凸性。下面介绍有关熵??几个重要概念,它涉及几个概率分布关系。;

1)相对熵

定义3.3对同一个随机变量X有两概率P(x)和Q(x),P(x)到Q(x)的相对熵定义为

相对熵可以作为两个分布间距离的一个度量。可以证明相对熵满足H[P(x)Q(x)]≥0,即是非负的。;

定理3.1设X是具有d个结果的随机变量,则H(X)≤1bd,且当X在d个结果上分布相同时取等号。

证明:设P(x)是X的一个具有d个结果的概率分布,令Q(x)=1/d,则有

因为

即;

2)联合熵与条件熵

定义3.4设X和Y是两个随机变量,X和Y的联合熵定义为

其中P(xy)是X取值x及y取值y同时发生的概率。

联合熵是测量XY整体不确定性的测度,若从该熵中减去Y的熵就得到已知Y条件下X的条件熵表示,即

它是在已知Y值条件下,平均而言对X值的不确定性的测度。;

3)互信息

定义3.5将包含X信息的H(X)加上包含Y信息的H(Y),再减去联合信息H(XY),就得到X和Y的共同信息H(X:Y),称为互信息,即有

将条件熵和互信息联系起来有;

各种熵之间的关系可以用一个图形来表示,如图3.2所示。此图也称为维恩图,利用它可以帮助我们理解各种熵之间的关系,但此图对量子熵不适用。

下面集中给出香农熵的几点性质。;;

;

3.1.2量子冯·诺依曼熵

将香农经典熵推广到量子状态,就是用密度算符代替熵中概率分布。

定义3.6若量子系统用密度算符ρ描述,相应量子熵定义为

量子熵最早由冯·诺依曼引入,故又称冯·诺依曼熵。若λn

是ρ的特征值,则冯·诺依曼熵又可以写为;

在具体计算中,式(3.16)用得多。例如:;

定义3.7若ρ和σ是密度算符,ρ到σ的量子相对熵定义为;;;

定义3.8若A、B组成复合系统,其密度矩阵为ρAB,定义A和B的联合熵为

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档