信息论与编码第2.ppt
《信息论与编码第2.ppt》由会员分享,可在线阅读,更多相关《信息论与编码第2.ppt(126页珍藏版)》请在三一办公上搜索。
1、,第2章无失真信源编码原理,2.1离散信源及其信息测度 2.2信源编码的基本概念 2.3惟一可译码 2.4信源变长编码 2.5统计匹配码,2.1离散信源及其信息测度 2.1.1信源概述 1消息、信号和信息信源的输出被称做消息(message),消息一般不能被直接传输,需要经过发送器的变换才能转换成适于信道传输的信号(signal)。消息和信号的这种区别对信息传输系统来讲是有一定意义的。,在一般情况下,消息和信号既是相互区别的,又是相互联系的。一方面,消息和信号的定义与含义不同。当信源的输出连同语义学上的意义一并加以理解时则称为消息。例如,播音员播送的一段新闻,记者拍摄的一段录像,歌手演唱的一首
2、歌曲等,都应该说是消息。而当信源的输出只被看做是随时间变化的某一物理量f(t)或随时间、空间位置变化的某一物理量f(x,y,t)时,则称为信号。另一方面,信源的输出在收到、看到、听到之前都是随机的、不确定的,属于随机现象。因此,从信息论的观点来看,信源的输出无论是被看做消息,还是被看做信号,它均含有信息。,消息、信号和信息这三者都可以说是信源的输出,或者说它们是信源输出的三个方面。由于信息论关心的是信源输出的信息,因此可将信源称为信息源。通常,统计信息论是不研究消息、信号和信息三个方面在语义学上的意义的,它只考虑信源输出的后两个方面,即信号和信息。应该说,信号是信息的载体和具体表达形式,信息必
3、须借助信号才能得以表现,信息不能离开信号而单独存在。所以,研究信源就是要研究信号和信息的关系,特别是信号如何才能有效地携带信息。,2信源的分类按信号取值的集合和信号取值时刻的集合是离散的或连续的进行分类,信源可分为数字信源(DigitalSource)或离散信源(DiscreteSource)、模拟信源(AnalogSource)或波形信源(WaveformSource)、连续信源(ContinuousSource)。,信源输出的信息从数学角度来看就是一种随机过程。有些信源输出的是单个符号(或代码)的消息,它们符号集的取值是有限的或可数的,即可用一维离散型随机变量来描述这些信源的输出,这样的信
4、源称为离散信源。在实际情况中,存在着很多这样的信源。例如投硬币、书信文字、计算机的代码、电报符号、阿拉伯数字码等等。当我们掷一个六面质地均匀的骰子时,每次出现朝上一面的点数都是随机的,如把出现朝上一面的点数作为这个随机试验的结果,并把试验的结果看做信源的输出消息,无可置疑,这个随机试验可看做是一个信源。这个信源输出有限种离散数字,其组成的集合为A=1,2,3,4,5,6,而且每一个数字代表一个完整的消息,,所以,这个信源是单符号离散信源。有的信源输出的虽是单个符号(或代码)的消息,但其可能出现的消息数是不可数的或无限的,即输出消息的符号集的取值是连续的,或取值范围是实数集(-,+)。例如,语音
5、信号、热噪声信号等某时间的连续取值数据,以及遥控系统中有关电压、温度、压力等测得的连续数据。这些数据取值虽是连续的,但又是随机的,可用一维的连续型随机变量来描述这些消息,所以这种信源可称为连续信源。,若信源只输出一个消息(符号),则用一维随机变量来描述。然而,很多实际信源输出的消息往往是由一系列符号序列所组成的。例如,将中文自然语言文字作为信源,这时中文信源的样本空间是所有汉字与标点符号的集合。由这些汉字和标点符号组成的序列即构成中文句子和文章。因此,从时间上看,中文信源输出的消息是时间上离散的符号序列,其中每个符号的出现是不确定的、随机的,由此构成了不同的中文消息。又例如,对离散化的平面灰度
6、图像信源来说,从XY平面空间上来看每幅画面是一系列空间离散的灰度值符号,而空间每一点的符号(灰度值)又都是随机的,由此形成了不同的图像消息。,这类信源输出的消息是按一定概率选取的符号序列,所以可以把这种信源输出的消息看做时间上或空间上离散的一系列随机变量,即随机矢量。这样,信源的输出可用N维随机矢量来描述,这N维随机矢量有时也称为随机序列,其中,N可为有限正整数或可数的无限值。若在信源输出的随机序列XX1X2XN中,每个随机变量Xi(i=1,2,N)都是取值离散的离散型随机变量,即每个随机变量Xi的可能取值是有限的或可数的,而且随机变量X的各维概率分布都与时间起点无关,也就是在任意两个不同时刻
7、,随机变量的各维概率分布都相同,这样的信源称为离散平稳信源。前面所述的中文自然语言文字与离散化平面灰度图像都是这种离散型平稳信源。,若信源输出的消息可用N维随机序列XX1X2XN来描述,其中每个随机分量Xi(i=1,2,N)都是取值为连续的连续型随机变量(即Xi的可能取值是不可数或无限的),并且满足随机变量X的各维概率密度函数与时间起点无关,也就是在任意两个不同时刻随机变量X的各维概率密度函数都相同,这样的信源称为连续平稳信源。例如,语音信号与热噪声信号,它们在时间上取样离散化后的信源输出矢量在时间上是离散的,但输出矢量中的随机变量的取值都是连续的,所以它们是连续型平稳信源。,某些简单的离散平
8、稳信源先后发出的一个个符号是统计独立的。也就是说,在信源输出的随机序列XX1X2XN中,各随机变量Xi(i=1,2,N)之间是无依赖的、统计独立的,这样的信源称为离散无记忆信源。该信源在不同时刻发出的各符号之间也是无依赖的、统计独立的。离散无记忆信源输出的随机变量X所描述的信源称为离散无记忆信源的N次扩展信源。可见,N次扩展信源是由离散无记忆信源输出N长的随机序列构成的信源。一般情况下,信源在不同时刻发出的各符号之间是相互依赖的,也就是在信源输出的平稳随机序列XX1X2XN中,各随机变量Xi之间是相互依赖的。,例如,在汉字组成的序列中,只有根据中文的语法、习惯用语、修辞制约和表达实际意义的制约
9、所构成的中文序列才是有意义的句子或文章。所以,在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相关的,其他如英文、德文等自然语言都是如此,将这种信源称为有记忆信源。对这类信源需要在N维随机矢量的联合概率分布中引入条件概率分布来说明它们之间的关联。,表述有记忆信源要比表述无记忆信源困难得多。实际上,信源发出的符号往往只与前若干个符号的依赖关系强,而与其更前面的符号依赖关系弱,为此,可以限制随机序列的记忆长度。当记忆长度为m+1时,称这种有记忆信源为m阶马尔可夫信源。也就是信源每次发出的符号只与前m个符号有关,与更前面的符号无关。假设m阶马尔可夫信源输出的随机序列为XX1X2Xi-1XiXi
10、+1XN。在这序列中某i时刻的随机变量Xi取什么符号只与前m个随机变量Xi-1Xi-2Xi-m取什么符号有关,而与其更前面的随机变量以及后面的随机变量取什么符号都无关。,这样,就可用马尔可夫链来描述此信源。如果描述随机序列中各随机变量之间依赖关系的条件概率都与时间起点i无关,即信源输出的符号序列可看成时齐马尔可夫链,则此信源称为时齐马尔可夫信源。,一般来说,实际信源输出的消息常常是时间和取值都是连续的,如语音信号、热噪声信号和电视图像信号等时间连续函数。同时,在某一固定时间,它们的可能取值又是连续的和随机的。这种信源输出的消息可用随机过程来描述,所以称其为随机波形信源。分析一般随机波形信源的过
11、程比较复杂和困难。常见的随机波形信源输出的消息是时间上或频率上为有限的随机过程。根据取样定理,只要是时间上或频率上受限的随机过程,都可以把随机过程用一系列时间(或频率)域上离散的取样值来表示,而每个取样值都是连续型随机变量。这样,就可把随机过程转换成时间(或频率)上离散的随机序列来处理。甚至在某种条件下可以转换成随机变量间统计独立的随机序列。如果随机过程是平稳的随机过程,时间离散化后可转换成平稳的随机序列。这样,随机波信源可以转换成连续平稳信源来处理。若再对每个取样值(连续型的)经过分层(量化),就可将连续的取值转换成有限的或可数的离散值。也就可把连续信源转换成离散信源来处理。,2.1.2信源
12、的数学模型根据信源输出信息所对应的不同的随机过程可以导出不同的信源模型。例如,根据随机过程具有的随机变量前后独立与否可分为独立随机信源(或称无记忆信源)和不独立随机信源(或称有记忆信源);根据随机过程平稳与否可分为平稳(稳恒)信源和非平稳(非稳恒)信源。与特殊的随机过程相对应又有特殊的信源模型,例如,与高斯过程相对应的高斯信源,与马尔可夫过程相对应的马尔可夫信源等,其中,马尔可夫信源是有记忆信源中最简单且最具代表性的一种。信源的类型不同其对应的模型也不同,限于篇幅,这里只介绍基本离散信源的数学模型及其无记忆扩展信源的数学模型。,在信息传输系统中收信者在未收到消息以前,对信源发出什么消息是不确定
13、的和随机的,所以可用随机变量、随机矢量或随机过程来描述信源输出的消息。或者说,用一个样本空间及其概率测度,也就是概率空间来描述信源。,一个基本离散信源的数学模型,(2-1),【例21】随机掷一个六面质地均匀的骰子,每次出现朝上一面的点数与其概率分布为,式(21)描述了信源基本特征,即一个信源符号就代表一个完整的消息,这样的信源也叫单符号离散信源。但实际信源发出的消息往往不止一个符号,而是由多个符号的时间(或空间)序列组成的。由多个符号组成的时间(或空间)序列称为多符号离散信源。设序列由N个符号组成,且先后发出的符号间彼此统计独立,这样的多符号离散信源可看做离散无记忆信源的N次扩展信源,其数学模
14、型为N维概率空间。,由信源U的信源空间可得信源U的N次扩展信源的信源空间为,(2-2),例2-2 已知二元信源,分别计算信源U的2次扩展信源及3次扩展信源模型。解由式(22)可得信源U的2次扩展信源的模型为,同理,由式(22)可得信源的3次扩展信源的模型为,2.1.3自信息量信息论不研究信源的内部结构,不研究信源为什么产生和怎样产生各种不同的、可能的消息,而只研究信源的各种可能的输出,以及输出各种可能消息的不确定性。由于信源发出的消息是不确定的,只有当信源发出的消息通过信道传输给信宿后,才能消除不确定性并获得信息。事件发生的不确定性与事件发生的概率有关。事件发生的概率越小,猜测它有没有发生的困
15、难程度就越大,不确定性也就越大;而事件发生的概率越大,猜测这事件发生的可能性就越大,不确定性也就越小。对于发生概率等于1的必然事件,就不存在不确定性。,1.自信息量自信息量是针对信源发出的某一个消息而言所得出的信息量,不同的消息对应不同的自信息。如果事件ui已发生,则信息ui包含的自信息量为,I(ui)logap(),(2-3),1bit0.693nat0.301det,2.联合自信息量式(2-3)的自信息量是针对一维空间的,可把它推广到二维空间,设概率空间X为:,(24),设概率空间Y为,(25),(2-6),2.1.4 平均自信息量1.基本离散信源自信息量是针对信源发出的某一个消息而言所得
16、出的信息量,不同的消息对应不同的自信息,自信息I(ui)是一个随机变量,其中任何一个消息的自信息都代表不了信源所包含的平均自信息量。不能作为整个信源的信息测度,因此定义基本离散信源自信息的数学期望为信源的平均自信息量,即:,(2-9),这个平均自信息量的表达式和统计物理学中“热熵”的表达式很相似。在统计物理学中,“热熵”是一个物理系统杂乱性(无序性)的度量,在概念上两者也有相似之处。因而就借用“熵”这个词把平均自信息量H(U)称为“信息熵”。信息熵的单位由自信息的单位决定,即取决于对数底的选取,当底分别为2、e、10时,信息熵的单位分别为比特(bit)、奈特(nat)/符号、笛特(det)/符
17、号,今后如不特殊说明,信息熵的单位为比特/符号。,信源的信息熵是从整个信源的统计特性来考虑的,它是从平均意义上来表征信源的总体信息测度的。对于某特定的信源(概率空间给定),其信息熵是一个特定的值。不同的信源因统计特性不同,其熵也不同。信息熵是表征信息源的平均不确定性,平均自信息量是消除信源不确定性时所需的信息的量度,即收到一个信源符号可全部解除这个符号的不确定性。或者说,获得这样大的信息量后,信源不确定性就被消除了。信息熵和平均自信息量两者在数值上相等,但含义不同。某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,必有信源的熵值;,同时,这个熵值在总体平均上才有意义,因而是一个确定的
18、值。而另一方面,信息量则只有当信源输出的符号被接收者收到后才有意义,信息量就是给予接收者的信息度量,这值本身可以是随机量,也可以与接收者的情况有关。因此说信息熵是信源的平均不确定性的描述,一般情况下它并不等于平均获得信息量。只有在无噪情况下,接收者才能正确无误地接收到信源所发出的信息,从而消除了信息熵H(U)值大小的平均不确定性,因此所获得的平均信息量就等于信息熵H(U)的值。通常情况下获得的信息量是两熵之差,并不是信息熵本身。,例2-4 有一布袋内放100个球,其中70个球是红色的,30个球是白色的。若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。解:设a1表示摸出的是红球;
19、a2表示摸出的是白球,则这一随机事件的概率空间为,如果被告知摸出的是红球,那么获得的信息量是:,如果被告知摸出的是白球,那么获得的信息量是:,这样,平均摸取一次所能获得的信息量约为,(比特符号),例2-5有一离散无记忆信源U,其概率空间为,解由于信源U共有3个不同的消息符号,所以由信源U中每两个符号组成的不同排列共有32=9种,即二次扩展信源共有9个不同的符号。又因为信源U是无记忆的,则二次扩展信源的概率空间为,于是,得:,说明,此处单位中的“符号”是指扩展信源的输出符号它是由2个组成),说明:此处单位中的“符号”是指扩展信源的输出符号i,它由两个i组成。由此可得H(U2)=2H(U)。对于上
20、述结论也可以直观地进行理解。因为扩展信源UN的每一个输出符号i是由N个i所组成的序列,并且序列中前后符号是统计独立的。现已知每个信源符号i含有的平均自信息量为H(U),那么,N个i组成的无记忆序列平均含有的自信息量就为NH(U)(依据熵的可加性)。因此信源UN每个输出符号i含有的平均自信息量为NH(U)。,3.联合熵与条件熵信息熵讨论的是单个的概率空间不确定性的度量问题,当将此概率空间看做离散信源时,相当于讨论离散信源的平均信息含量。在实际应用中,常常需要考虑两个或两个以上的概率空间之间的关系,这就需要引入联合熵与条件熵的概念。在联合集XY上,每对元素xiyj的自信息量的概率加权平均值定义为联
21、合熵(JointEntropy)。即,(211),由式(27)和式(211)得:,(212),在联合集XY上,条件自信息量I(xi|yj)的概率加权平均值定义为条件熵(ConditionalEntropy)。即,(2-13),由式(2-8)和式(2-13)得,(2-14),条件熵与联合熵的单位同自信息量一样。,2.1.5 平均互信息量信息熵H(X)代表接收到输出符号以前关于输入X的平均不确定性,而H(X|Y)代表接收到所有输出符号后关于输出X的平均不确定性。通过信道传输消除了一些不确定性,获得了一定的信息,所以定义信道输入X和信道输出Y之间平均互信息为:,I(X;Y)H(X)H(X|Y)H(Y
22、)H(Y|X)H(X)H(Y)H(XY),(215),可见,X和Y之间的平均互信息量代表接收到输出符号后平均每个符号获得的关于X的信息量,也表明了输入X和输出Y之间的统计约束程度。平均互信息量具有如下性质:(1)交互性:I(X;Y)I(Y;X);(2)非负性和极值性:0I(X;Y)min(H(X),H(Y);(3)凸状性:I(X;Y)是信源P(X)的上凸函数(形凸函数),I(X;Y)是信道传递概率P(Y|X)的下凸函数(形凸函数)。,因为,因此和是随机变量X和Y之间相互提供的信息量,称互信息是全确切的。,因此,I(X;Y)和I(Y;X)是随机变量X和Y之间相互提供的信息量,称互信息量是完全确切
23、的。由于H(X)H(X|Y),H(Y)H(Y|X),于是由互信息量定义可得I(X;Y)0,由于H(X|Y)0,H(Y|X)0,又由互信息量定义可知I(X;Y)H(X),I(Y;X)H(Y)。于是可以得到I(X;Y)min(H(X),H(Y),当随机变量X和Y之间统计独立时,有H(X|Y)=H(X),H(Y|X)=H(Y),于是得到I(X;Y)=0。,当信道固定时,对于不同的信源概率分布,信道输出端获得的信息量是不同的。因此,对于每一个固定信道,一定存在一种概率信源(一种分布),使输出端获得的信息量最大,即I(X;Y)是信源P(X)的上凸函数(形凸函数);信源固定以后,用不同的信道来传输同一信源
24、符号时,在信道输出端获得的信息量是不同的。对每一种信源一定存在一种最差的信道,此信道的干扰最大,而使输出端获得的信息量最小,即I(X;Y)是信道传递概率P(Y|X)的下凸函数(形凸函数)。,2.1.6各种熵之间的关系为了讨论各种熵之间的关系,首先需给出关于凸函数的一个结论。已知一个实值函数f,如果对任意x,yI都有,(2-16),则称f在区间I上是凸的;如果对任意,都有式(2-16)中仅小于号成立,则称f为在区间I上是严格凸的。,(2-17),进一步,式(2-17)中的等号成立当且仅当。容易证明,对数函数在区间上是一个连续的严格凸函数。,定理2-1,(2-18),H(X)=0当且仅当存在一个x
25、i(1in),有p(xi)=1,而对其他ji,有p(xj)=0,1jn。H(X)=lbn当且仅当对任意i(1in),都有p(xi)=1/n。,证明根据H(X)的定义,H(X)0是显然的。如果H(X)=0,则对任意i(1in),都有-p(xi)lbp(xi)=0。从而对任意i都有p(xi)=0或p(xi)=1。又因为,所以存在一个xi(1in),有p(xi)=1,而对其他ji,有p(xj)=0(1jn)。根据Jensen不等式,有,进一步,若式中等号成立,当且仅当对任意i(1in),都有p(xi)=1/n。,定理22,(2-19),等号成立当且仅当X与Y相互独立。证明 因为,(220),(221
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码
链接地址:https://www.31ppt.com/p-5490960.html