信息论基本概念.ppt
《信息论基本概念.ppt》由会员分享,可在线阅读,更多相关《信息论基本概念.ppt(44页珍藏版)》请在三一办公上搜索。
1、第二章 信息论基本概念,2.1 信源的分类,2.2 自信息量和条件自信息量 一.自信息量 一个随机事件的自信息量定义为其出现概率对数的负值 若随机事件Xi出现概率为P(Xi),那么它的自信息量I(Xi)为:比特 奈特 哈脱奈 1nat 1.433 bit 1hartley 3.322 bit,由定义式可知,若一个以等概率出现的二进制码元(0,1),即当P(0)P(1)1/2时 I(0)I(1)1bit 在此引入不确定度概念 若 出现概率 1(发生可能性大,包含的不确定度小)出现概率 0(发生可能性小,包含的不确定度大)出现概率 1(包含的不确定度为0)注意:随机事件的不确定度在数量上等于它的自
2、信息量,两者单位相同,但含义却不相同。具有某种概率分布的随机事件不管发生与否,都存在不确定度,不确定度表征了该事件的特性,而自信息量是在该事件发生后给予观察者的信息量。,例 某地二月份气候的概率分布根据气象资料统计下表:则四种气候的不确定度分别为:I(X1)1bit I(X2)2bit I(X3)3bit I(X4)3bit二.联合自信息量 在二维联合集XY上的元素对xiyj的自信息量定义为:式中,P(xiyj)是元素对xiyj的联合概率。当xi 和 yj相互独立时,有P(xiyj)P(xi)P(yj)就有 I(xiyj)I(xi)I(yj)元素对xiyj的不确定度在数值上也等于它们的自信息量
3、,三.条件自信息量 条件自信息量定义为条件概率对数的负值 设在yj的条件下,随机事件xi的条件概率为P(xi|yj),那么它的条件自信息量I(xi|yj)定义为:在给定yj的条件下,随机事件xi所包含的不确定度在数值上与条件自信息量相同 因为一个随机事件的概率和条件概率总是在闭区间0,1内,所以自信息量、联合自信息量与条件自信息量均为非负值,2.3 互信息量和条件互信息量 一.互信息量 设有一个简单的通信系统模型 两个离散符号的消息集合X和Y,X是信源发出的符号集合,Y是信宿收到的符号集合 通常实际中,可以知道信息X发出的各个符号消息的集合,以及它们的概率分布,也就是知道信源X的概率空间 对于
4、XX1,X2,XN,其相应各个元素的概率为 P(x1),P(x2),P(xN)xi和P(Xi)(i1,2,n)的两个集合就称为概率空间,记作 X,PX 在这里,各个符号xi的概率称为先验概率,当信宿收到一个符号yj后,信宿可以计算信源各消息的条件概率P(xi|yj)(i1,2,n),这种条件概率就称作后验概率 如观察输入为xi 观察结果为yj。从yj中会得到有关输入符号xi的信息,记该信息为I(xi;yj),称为xi与yj之间的互信息量,也叫事件信息。信息是先验不确定性减去后验不确定性,应等于为xi在观察到yj前后的不确定性之差,即xi的yj先验不确定性减去xi的后验不确定性 再由自信息量和条
5、件自信息量的定义式,不难推出互信息量的概率计算式,二.互信息量的性质 1.对称性 I(xi;yj)I(yj;xi)推导如下:I(xi;yj)log P(xi|yj)/P(xi)log P(xi|yj)P(yj)/P(xi)P(yj)log P(xiyj)/P(xi)P(yj)log P(xiyj)/P(xi)/P(yj)logP(yj|xi)/P(yj)I(yj;xi)由对称性可知随机事件xi与yj之间的统计约束程度。当后验概率P(xi|yj)大于先验概率P(xi)时,互信息量为正值;说明信宿收到yj提供了有关xi的信息,这样,信宿对信源发出的符号消息xi的不确定度减小了,2.当xi和yj相互
6、独立时,互信息量为0 当xi和yj相互独立时,有P(xiyj)P(xi)P(yj)I(xi;yj)logP(xi|yj)P(yj)/P(xi)P(yj)logP(xiyj)/P(xi)P(yj)log21 0 这表示xi和yj之间不存在统计约束关系 3.互信息量可为正值或负值 4.互信息量不可能大于符号的实在信息,即 由互信息量的定义,考虑条件自信息量的非负 性,不难证明上式成立。其物理意义是:认识主体获得的某符号的信息,不可能大于该符号的实在信息。,例:根据2.2节的例题,我们来讨论互信息量的意义,即某地二月份气候的概率空间为 若把“今天不是晴天”,作为收到消息X1。当收到X1后,各种气候的
7、概率变成了后验概率 其中:P(x1|X1)0 P(x2|X1)1/2 P(x3|X1)1/4 P(x4|X1)1/4 根据式 I(xi;yj)logP(xi|yj)/P(xi)得 X1与X2,X3,X4 的互信息量均为1bit 说明:收到X1后,可以使X2,X3,X4的不确定度减少1bit,即“今天不是晴天”这个条件提供了1bit的信息量。,符号xi对联合事件符号yj zk之间的互信息量定义为:I(xi;yj zk)logP(xi|yj zk)/P(xi)*三.条件互信息量 含义:在给定zk条件下,xi与yj之间的互信息量 条件互信息量I(xi;yj|zk)定义为:I(xi;yj|zk)log
8、P(xi|yj zk)/P(xi|zk)从上式,可使*式写成:I(xi;yj zk)I(xi;zk)I(xi;yj|zk)推导如下:I(xi;yj zk)log P(xi|yj zk)/P(xi)log P(xi|yj zk)/P(xi|zk)P(xi|zk)/P(xi)log P(xi|yj zk)/P(xi|zk)log P(xi|zk)/P(xi)I(xi;zk)I(xi;yj|zk),*式表明:一个联合事件yj zk出现后所提供的有关xi的信息量等于事件zk出现后所提供的有关xi的信息量I(xi;zk),加上在zk条件下再出现yj所提供的有关xi的信息量I(xi;yj|zk)*式中yj
9、和zk的位置可互换,得 I(xi;yj zk)I(xi;yj)I(xi;zk|yj)2.4 通信熵一.熵(平均不确定度)例:一个布袋放100个球,其中80个球红色,20个球白色。若随机取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。解:这一事件的概率空间为 其中X1表示摸出的球为红球事件,X2表示摸出的球为白球事件,若告知摸出的是红球,则事件的自信息量为 I(X1)logP(X1)log20.8 bit 若告知摸出的是白球,则事件的自信息量为 I(X2)logP(X2)log20.2 bit 若取回后又放回摸取,如此摸取n此,红球出现的次数nP(X1),白球出现的次数为nP(X2),则
10、总信息量为 InP(X1)I(X1)nP(X2)I(X2)而平均随机摸取一次所获得的信息量为 H(X)1/n nP(X1)I(X1)nP(X2)I(X2)P(X1)logP(X1)P(X2)logP(X2)P(Xi)logP(Xi),一个信源总是包含着多个符号消息,各个符号消息又按概率空间的先验概率分布,它的不确定度是各个符号的不确定度的数学期望(即概率加权的统计平均值)它的熵(平均不确定度)H(X)定义为:H(X)EI(x)P(X)I(X)P(X)log2P(X)若信源X中的符号的概率空间简化表示为:则熵(平均不确定度)H(X)可写成:H(X)PilogPi 注意:I(X)为非负,P(X)为
11、非负,且0P(X)1 H(X)也为非负,H(X)的值可作为信源X中任一符号消息所携带的平均信息量,也是唯一地确定信源X中任一符号消息时所需的最小平均信息量二.条件熵 条件熵是在联合符号集合XY上的条件自信息量的联合概率加权统计平均值 在给定Y(即各个y)条件下,X集合的条件熵H(X|Y)定义为:H(X|Y)P(xy)I(x|y)P(xy)logP(x|y)在给定Y(即各个x)条件下,Y集合的条件熵H(Y|X)定义为:H(Y|X)P(xy)I(y|x)P(xy)logP(y|x),下面推导说明求条件熵用联合概率加权的理由先取在一个条件y下,X集合的条件熵H(X|y)为:H(X|y)P(x|y)I
12、(x|y)P(x|y)logP(x|y)进一步把H(X|y)在Y集合上取数学期望,就得条件熵H(X|Y)为:H(X|Y)P(y)H(X|y)P(y)P(x|y)logP(x|y)P(xy)logP(x|y)三.共熵 共熵是联合符号集合XY上的每个元素对xy的自信息量的联合概率加权统计平均值,即共熵H(XY)定义为:H(XY)P(xy)I(xy)P(xy)log P(xy),共熵H(XY)与熵H(X)及条件熵H(X|Y)之间有如下关系:H(XY)H(X)H(Y|X)推导如下:P(xy)P(x)P(y|x)I(xy)I(x)+I(y|x)H(XY)H(X)H(Y|X)同理存在:H(XY)H(Y)H
13、(X|Y)三维联合符号集合XYZ上的共熵H(XYZ)定义为 H(XYZ)P(xyz)logP(xyz)由上面所述可得:H(XYZ)H(XY)+H(Z|XY)H(X)+H(Y|X)+H(Z|XY)H(XYZ)H(X)+H(Y)+H(Z),取对数,取统计平均,条件熵与信源熵之间存在关系 H(Y|X)H(Y)当且仅当P(y|x)P(y),即y和x相互独立时,式取等证明:H(Y|X)H(Y)P(xy)log1/P(y|x)P(y)log1/P(y)P(xy)log1/P(y|x)P(y)P(x|y)log1/P(y)P(xy)log1/P(y|x)P(xy)log1/P(y)P(xy)logP(y)/
14、P(y|x)在这里同样利用自然对数性质:ln 1,0 当且仅当1时,式取等 令P(y)/P(y|x),引用 ln 1 H(Y|X)H(Y)P(xy)P(y)/P(y|x)1loge P(x)P(y)P(xy)loge(11)loge0,(续上)当且仅当P(y)/P(y|x)1时,即P(y|x)P(y)时,式取等同理有:H(X|Y)H(X)此定理说明:条件熵小于或等于原符号集合的熵 两个条件下的条件熵与一个条件下的条件熵之间存在关系 H(Z|XY)H(Z|Y)当且仅当 P(z|xy)P(z|y)时,式取等强调指出:条件熵的条件越多,其条件熵的值就越小 H(Z|XY)H(Z|Y)H(Z),四.各种
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 基本概念

链接地址:https://www.31ppt.com/p-5927029.html