信息论基础理论与应用3极限熵及马科夫信源.ppt
《信息论基础理论与应用3极限熵及马科夫信源.ppt》由会员分享,可在线阅读,更多相关《信息论基础理论与应用3极限熵及马科夫信源.ppt(51页珍藏版)》请在三一办公上搜索。
1、2.5 离散平稳信源,2.5.1 离散平稳信源的数学定义2.5.2 二维平稳信源及其信息熵2.5.3 离散平稳信源的极限熵,2.5.1 离散平稳信源的数学定义,实际情况下,离散信源的输出是空间或时间的离散符号序列,而且在序列中符号之间有依赖关系.此时可用随机矢量来描述信源发出的消息,即,其中任一变量Xi表示t=i时刻所发出的信号。信源在此时刻将要发出什么信号取决于以下两点:(1)与信源在t=i时刻随机变量Xi的取值的概率分布P(Xi)有关。(2)与t=i时刻以前信源发出的符号有关,即与条件概率 P(xi|xi-1xi-2)有关,一般情况下,它也是时间t=i的函数,,如果信源分布与与时间无关,即
2、时间的推移不引起信源统计特性的变化,设i、j为两任意时刻,若有,离散平稳信源的数学定义(1),具有这样性质的信源称为一维平稳信源,掷骰子掷5次后,再掷第6次时,掷出的点数的概率分布与前5次的概率分布相同-平稳信源,离散平稳信源的数学定义(2),如果一维平稳信源的联合概率分布P(xixi+1)也与时间起点无关,即,(i、j为任意整数且ij),则信源称为二维平稳信源。上述等式表示任何时刻信源连续发出二个符号的联合概率分布也完全相等。,以此类推,如果各维联合概率分布均与时间起点无关,既当t=i,t=j(i、j为任意整数且ij)时有:,离散平稳信源的数学定义(3),2.5-1,那么,信源是完全平稳的。
3、这种各维联合概率分布均与时间起点无关的完全平稳信源称为离散平稳信源。,因为联合概率与条件概率有以下关系:,离散平稳信源的数学定义(4),根据2.5-1式可得,注意:平稳信源的条件概率与时间起点无关,只与关联长度N有关。如果某时刻发出什么信号与前发出的N个符号有关,那么任何时刻他们的依赖关系是一样的。,2.5.2 二维平稳信源及其信息熵,二维平稳信源满足以下条件:,设有离散一维信源的概率空间为:,二维平稳信源的信息熵(1),由此一维信源组成的二维信源的概率空间为:,同时还已知连续两个信源符号出现的联合概率分布P(aiaj)(i,j=1,2,q),并有:,根据信息熵的定义可求得此信源的信息熵为:,
4、二维平稳信源的信息熵(2),我们把H(X1X2)称为X1X2的联合熵。此值表示原来信源X输出任意一对消息的共熵,即描述信源X输出长度为2的序列的平均不确定性,或者是信息量。,因为信源X发出的符号序列中前后两个符号之间有依赖性,所以首先可以求得已知前面一个符号X1=ai信源输出下一个符号的平均不确定性。以下表所示的信源为例,二维平稳信源的信息熵(3),所以,已知前面一个符号X1=ai信源输出下一个符号的平均不确定性,即信息熵为:,上式是对下一个符号aj的可能取值进行统计平均。而前一个符号X1取值范围是a1,a2,a3,a4中的任一个。对于某一个ai存在一个平均不确定性H(X2|X1=ai)。对所
5、有ai的可能值进行统计平均就得当前面一个符号已知时,再输出后面一个符号的总的平均不确定性,二维平稳信源的信息熵(4),此值为二维平稳信源的条件熵,根据概率关系展开式,我们可以得到联合熵与条件熵的关系式,二维平稳信源的信息熵(5),根据概率关系展开式,我们可以得到联合熵与条件熵的关系式,而上式中的第一项可变换为:,二维平稳信源的信息熵(6),从上面的推导得:H(X1X2)=H(X1)+H(X2|X1),物理意义:联合熵等于前一个符号出现的熵加上前一个符号已知时后一个符号出现的条件熵。这就是熵的强可加性。,同理可以证明:H(X1X2)=H(X2)+H(X1|X2),二维平稳信源的信息熵(7),条件
6、熵与无条件熵的大小关系 H(X2|X1)H(X2),证明 在区域0,1中,设函数f(x)=-xlogx,它在正区域内是型函数,设P(aj|ai)=pij,P(ai)=pi,根据詹森不等式,得,因其中,所以有,二维平稳信源的信息熵(8),只有当P(aj|ai)=P(aj)时,等式成立。,不难看出 H(X1X2)=H(X1)+H(X2|X1)H(X1)+H(X2)所以 H(X1X2)2H(X),物理意义解释:因为当二个符号间有依赖关系时,就意味着在前一个符号发生的条件下,其后面跟着什么符号不是不确定的,而是有的符号发生的可能性大,有的发生的可能性小,从而平均不确定性减少。,例2.6 某离散二维平稳
7、信源,并设发出的符号只与前一个符号有关,即可用联合概率P(aiaj)给出它们的关联程度。如下表所示:,例题讲解(1),表2.2 P(aiaj),例如:P(ai=0,aj=0)=1/4,P(ai=0,aj=1)=1/18,例题讲解(2),由概率关系可得,不难求得条件概率P(aj|ai),把计算结果列于表2.3,表2.3 P(aj|ai),例如:P(aj=0|ai=0)=9/11,P(aj=0|ai=1)=1/8,例题讲解(3),假设信源符号间无依赖性,计算得X的信源熵为,在本例中,考虑信源符号间的依赖性时,计算得条件熵,或者,例题讲解(4),联合熵,可见 H(X1X2)=H(X1)+H(X2|X
8、1),关于本例的说明:信源的这个条件熵比信源无依赖时的熵H(X)减少了0.672比特,这正是符号之间有依赖性所造成的结果。联合熵H(X1X2)表示平均每二个信源符号所携带的信息量。那么平均每一个信源符号携带的信息量近视为 H2(X)=H(X1X2)/2=1.205(比特/符号)可见 H2(X)H(X),2.5.3 离散平稳信源的极限熵,设离散平稳有记忆信源,发出的符号序列为(,X1,X2,XN,XN+1,),假设信源符号之间的依赖长度为N,并已知各维概率分布:,并满足,符号的相互依赖关系往往不仅存在于相邻的两个符号之间,而且存在于更多的符号之间。所以,对于一般平稳有记忆信源,可以证一些重要结论
9、。为此,本节将从一维信源入手,来探讨多维信源的性质,离散平稳信源的极限熵(1),离散平稳信源的一系列联合熵为:,为了计算离散平稳信源的信息熵,我们定义N长的信源符号序列中平均每个信源符号所携带的信息量为:,此值称为平均符号熵。,因信源符号之间的依赖关系长度为N,所以可以求出已知前面N-1个符号时,后面出现一个符号的平均不确定性。也就是已知前面N-1个符号时,后面出现一个符号所携带的信息量,即得一系列条件熵。,离散平稳信源的极限熵(2),对于离散平稳信源,当H1(X)时,具有以下几点性质:条件熵H(XN|X1X2XN-1)随N的增加是非递增的N给定时,平均符号熵条件熵,即 HN(X)H(XN|X
10、1X2XN-1)平均符号熵HN(X)随N的增加是非递增的,4.存在,且,则称H为平稳信源的极限熵或极限信息量。,离散平稳信源的极限熵(3),证明 根据上文的讨论,同理可以证得 H(X3|X1X2)H(X3|X2)因为是平稳信源,所以有 H(X3|X2)=H(X2|X1)故得 H(X3|X1X2)H(X2|X1)H(X1)由此递推,对于平稳信源有 H(XN|X1X2XN-1)H(XN-1|X1X2XN-2)H(XN-2|X1X2XN-3)H(X3|X1X2)H(X2|X1)H(X1)性质(1)得证,离散平稳信源的极限熵(4),证明,根据性质(1)NHN(X)=H(X1,X2,XN)=H(X1)+
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 基础理论 应用 极限 马科夫 信源

链接地址:https://www.31ppt.com/p-5230831.html