信息论与编码第2章信源熵.ppt
《信息论与编码第2章信源熵.ppt》由会员分享,可在线阅读,更多相关《信息论与编码第2章信源熵.ppt(253页珍藏版)》请在三一办公上搜索。
1、当你感到悲哀痛苦时,最好是去学些什么东西。学习会使你永远立于不败之地。,第1章:概述,第2章:信源熵,第3章:信道容量,第4章:信息率失真函数,第5章:信源编码,第6章:信道编码,第7章:密码体制的安全性测度,信息度量的方法有:结构度量、统计度量、语义度量、语用度量、模糊度量等等。最常用的方法是统计度量。它用事件统计发生概率的对数描述事物的不确定性,得到消息的信息量,建立熵的概念。熵概念是香农信息论最基本最重要的概念。,从随机变量出发来研究信息,正是香农信息论的基本假说。,2.1 单符号离散信源,2.3 连续信源,2.2 多符号离散信源,2.4 离散信源无失真编码定理,2.1.6 各种熵之间的
2、关系,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.4 加权熵的概念和基本性质,2.1.5 平均互信息,连续信源,单符号离散信源,多符号离散信源,信源输出的是一个个符号,这些符号的取值是有限的或可数的。,只涉及一个随机事件的离散信源。可用离散随机变量来描述。,涉及多个随机事件的离散信源。可用随机矢量来描述。,输出连续消息的信源。可用随机过程来描述。,信源分类,对于离散随机变量,取值于集合,单符号离散信源的数学模型为,(2.1.2),需要注意 的是:大写字母X、Y、Z 代表随机变量,指的是信源整体。带下标的小写字母:代表随机事件的某
3、一结果或信源的某个元素。两者不可混淆。,2.1.4 加权熵的概念和基本性质,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.5 平均互信息,2.1.6 各种熵之间的关系,随机变量X、Y分别取值于集合,联合随机变量 取值于集合,记,无条件概率、条件概率、联合概率满足下面一些性质和关系:,1,2,3,4,5,6,一、信息量,度量信息的基本思路 考虑一个单符号离散信源,它的输出被传送给对此感兴趣的一方。设 为最大可能的输出,为最小可能的输出。例如,假设信源输出代表天气情况,为晴或多云天气,为冰雹或其它强对流天气。哪个输出包含更多的信息,还
4、是?直观地,传递 给出了更多的信息。由此可以合理地推算信源输出的信息量应该是输出事件的概率的减函数。信息量的另一个直观属性是,某一输出事件的概率的微小变化不会很大地改变所传递的信息量,即信息量应该是信源输出事件概率的连续减函数。,假设与输出 相关的信息能被分成独立的两部分,比如 与,即。例如,假设天气预报中的天气及温度变化是与污染程度相关性很小甚至几乎完全独立的,则信源的每一个输出就能分成独立的两部分。直观地,传递 所包含的信息量是分别传递 和 所得到的信息量的和。若信源中事件 的出现所带来的信息量用 来表示并称之为事件 的自信息量,则概率为 的信源输出 所包含的信息量 必须满足以下几个条件:
5、,信源输出 所包含的信息量 仅依赖于它的概率,而与它的取值无关。2.是 的连续函数。3.是 的减函数,即:如果,则。极限情况,若,则;若,则。4.若两个单符号离散信源(符号集合X,Y)统计 独立,则X中出现、Y中出现 的联合信息量 问题:什么函数能够同时满足以上条件呢?,举例设在甲布袋中,放入p个不同阻值的电阻。如果随意选取出一个,并对取出的电阻值进行事先猜测,其猜测的困难程度相当于概率空间的不确定性。甲布袋的概率空间为:阻值为i的电阻:选取出阻值为i电阻的概率假设电阻选取的概率是相等的,则接收到“选取出阻值为i的电阻”所获得的信息量为,乙布袋中,放入按功率划分的q种不同功率的电阻。如果对任意
6、选取出来的功率值进行事先猜测,那么,可看成为另一概率空间:功率为j的电阻:选取出功率为j的电阻的概率假设q种不同功率的选择也是等概率的,则被告知“选取出功率为j的电阻”所获得的信息量为这两个函数应该是同一类函数,再设在第三个布袋中,放入p种不同阻值,而每一种阻值又有q种不同功率的电阻,即共有pq个电阻。设它们的选取也是等可能性的,其概率空间为则“选取出阻值为i,功率为j的电阻”这一事件提供的信息量应为从第三个布袋中选出一电阻的效果相当于从甲布袋中选择一电阻后再从乙布袋中选择一电阻。“选取出阻值为i,功率为j”这件事提供的信息量应该是“选取出阻值为i”和“选取出功率为j”这两件事提供的信息量之和
7、,即,可以用泛函分析方法解得满足条件的函数形式为所以:显然满足:用概率测度定义信息量:设离散信源X,其概率空间为如果知道事件 已发生,则该事件所含有的自信息定义为,单位:比特(2为底)、奈特、笛特(哈特)三个信息单位之间的转换关系如下:,由式(2.1.3)可知,一个以等概率出现的二进制码元(0,1)所包含的自信息量为1bit。,对于 进制的数字序列,假设每一符号的出现完全随机且概率相等,求任一符号的自信息量。解:设 进制数字序列任一码元 的出现概率为,根据题意,事件的自信息量只与其概率有关,而与它的取值无关。,例2.1.1,这四种气候的自信息量分别为:,某地二月份天气的概率分布统计如下:,信息
8、量与不确定性的关系 信源中某一消息发生的不确定性越大,一旦它发生,并为收信者收到后,消除的不确定性就越大,获得的信息也就越大。由于种种原因(例如噪声太大),收信者接收到受干扰的消息后,对某信息发生的不确定性依然存在或者一点也未消除时,则收信者获得较少的信息或者说一点也没有获得信息。,信息量的直观定义:收到某消息获得的信息量不确定性减少的量(收到此消息前关于某事件发生的不确定性)(收到此消息后关于某事件发生的不确定性)在无噪声时,通过信道的传输,可以完全不失真地收到所发的消息,收到此消息后关于某事件发生的不确定性完全消除,此项为零。因此得收到某消息获得的信息量收到此消息前关于某事件发生的不确定性
9、信源输出的某消息中所含有的信息量,自信息量和该事件的不确定度的含义有本质的区别。不确定度只与事件的概率有关,是一个统计量,在静态状态下也存在;自信息量只有该随机事件出现时才给出,不出现时不给出,因此它是一个动态的概念。,自信息含义当事件 发生以前:表示事件 发生的不确定性。当事件 发生以后:表示事件 所含有(或所提供)的信息量。在无噪信道中,事件 发生后,能正确无误地传输到收信者,所以 可代表接收到消息 后所获得的信息量。这是因为消除了 大小的不确定性,才获得这么大小的信息量。,不确定度表示含有多少信息,信息量表示随机事件发生后可以得到多少信息。,信息论中“比特”与计算机术语中“比特”区别如果
10、,则 比特。所以1比特信息量就是两个互不相容的等可能事件之一发生时所提供的信息量。信息论中“比特”是指抽象的信息量单位;计算机术语中“比特”是代表二元数字;这两种定义之间的关系是:每个二元数字所能提供的最大平均信息量为1比特。,自信息量具有下列性质:,图2.1.1 对数曲线,2,3,联合自信息量,代入式(2.1.3)就有,条件自信息量,的变化而变化。,自信息量、条件自信息量和联合自信息量之间有如下关系式:,联合自信息量和条件自信息也满足非负 和单调递减 性,同时,它们也都是随机变量,其值随着变量,二、互信息量和条件互信息量,由前可知,离散信源X的数学模型为,互信息量,信宿Y 的数学模型为,先验
11、概率:信源发出消息 的概率。后验概率:信宿收到 后推测信源发出 的 概率。互信息量:对 的互信息量定义为后验概 率与先验概率比值的对数。,例2.1.2,继续讨论第一节的例题,即某地二月份天气构成的信源为,一天有人告诉你:“今天不是晴天”。把这句话作为收到的消息,当收到 后,各种天气发生的概率变成后验概率了。=“今天不是晴天”,由于 包含了、,因此,那么,两个不确定度之差,是不确定度被消除的部分,代表已经确定的东西。,?,理想情况:,不确定性发生了一些变化。不确定性变化的部分,即是观察者从接收端获得的关于发送端的信息量。,观察者站在输出端自信息量:对 一无所知的情况下 存在的不确定度;条件自信息
12、量:已知 的条件下 仍然存在的不确定度;互信息量:两个不确定度之差是不确定度被消除的部分,即等于自信息量减去条件自信息量。实际是从 得到的关于 的信息量。,?,理想情况:,不确定性发生了一些变化。不确定性变化的部分,即是观察者从发送端获得的关于接收端的信息量。,观察者在输入端出现 前、后对输出端出现 的不确定度有变化,即从 中也可提取关于 的信息量。观察者得知输入端发出 前、后对输出端出现 的不确定度的差。,观察者站在输入端观察,通信前,先验不定度(联合自信息量),观察通信系统:,后验不定度,通信后,这样,通信后流经信道的信息量,等于通信前后不定度的差,观察者站在通信系统总体立场上通信前:输入
13、随机变量X和输出随机变量Y之间没有任何关联关系,即X,Y统计独立:先验不确定度通信后:输入随机变量X和输出随机变量Y之间由信道的统计特性相联系,其联合概率密度:后验不确定度通信后的互信息量,等于前后不确定度的差这三种表达式实际上是等效的,在实际应用中可根据具体情况选用一种较为方便的表达式。,互信息的引出,使信息流通问题进入了定量分析的范畴,为信息流通的定量测量打下了坚实的基础,把信息理论发展到了一个更深的层次,可以认为是信息论发展的又一个里程碑。,互信息的性质,对称性,当X和Y相互独立时,互信息为0,互信息量可为正值或负值,1,2,3,条件互信息量,(2.1.13),三.信源熵,已知单符号离散
14、无记忆信源的数学模型,这里的符号是指代表信源整体的X,信源熵,信源熵,各离散消息自信息量的数学期望,即信源的平均信息量。,信源的信息熵;香农熵;无条件熵;熵函数;熵。单位:比特/符号。,例2.1.3,继续讨论第一节的例题,即某地二月份天气构成的信源为,由式(2.1.16)的定义,该信源的熵为,信源熵和平均自信息量两者在数值上是相等的,但含义并不相同。信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,这熵值在总体平均的 意义上才有意义,因而是 一个确定值。,在离散信源的情况下,信源
15、熵的值是有限的。而信息量只有当信源输出离散消息并被接收后,才有意义。这就是给予接收者的信息度量。这值本身可以是随机量,如前面所讲的自信息量。也可以与接收者的情况有关,如后面要提到的意义信息 量。当信源输出连续消息 时,信息量的值可以是无 穷大。,信源熵与信息量的比较,熵 信息量,总括起来,信源熵有三种物理含义:,信源熵H(X)表示信源输出后,离散消息所提供的平均信息量。,信源熵H(X)表示信源输出前,信源的平均不确定度。,信源熵H(X)反映了变量X的随机性。,1,2,3,举例有两个信源,其概率空间分别为信息熵分别为H(X)=-0.99log0.99-0.01log0.01=0.08 比特/符号
16、H(Y)=-0.5log0.5-0.5log0.5=1 比特/符号 可见H(Y)H(X)本例结论信源Y的二个输出消息是等可能性的,所以在信源没有输出消息以前,事先猜测哪一个消息出现的不确定性要大;信源Y比信源X的平均不确定性大;信源X的二个输出消息不是等概率的,事先猜测些 和 哪一个出现,虽然具有不确定性,但大致可以猜出 会出现,因为 出现的概率大。所以信源X的不确定性要小;信息熵反映的就是信源输出前平均不确定程度的大小。,信源熵与平均获得的信息量信源熵是信源的平均不确定性的描述。在一般情况下它并不等于平均获得的信息量。只有在无噪情况下,接收者才能正确无误地接收到信源所发出的消息,消除了H(X
17、)大小的平均不确定性,所以获得的平均信息量就等于H(X)。在一般情况下获得的信息量是两熵之差,并不是信源熵本身。,例:P22,例。由联合得边界、条件。,条件熵,联合熵,熵的文氏图表示,2.1.4 加权熵的概念和基本性质,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.6 各种熵之间的关系,2.1.5 平均互信息,例:,非负性,对称性,1,2,定理,信源中包含n个不同离散消息时,信源熵H(X)有,当且仅当X中各个消息出现的概率全相等时,上式取等号。,最大离散熵定理,3,证明:自然对数具有性质,图2.1.4 自然对数的性质,对于单符号离
18、散信源,当信源呈等概率分布时具有最大熵。,如图,时熵与概率的关系,问题?设信源求这信源的熵,并解释原因。,虽然概率很小的事件出现后,给予接收者的信息量很大,但对熵的贡献很小,可以忽略不计。,扩展性,4,确知信源的不确定度为零。,正因为具有可加性,可以证明熵的形式是唯一的。,确定性,可加性,6,5,已知Y后,从中得到了一些关于X的信息,从而使X的不确定度下降。,极值性,7,上式含义:概率分布,它对其它概率分布 的自信息 取数学期望时,必大于 本身的熵。,f 的定义域中任意两个矢量X、Y,若,则称 f 为严格上凸函数,设P、Q为两组归一的概率矢量。即,上凸性,8,则有,(),证明;几何意义:P21
19、,严格上凸函数在定义域内的极值必为极大值。,2.1.4 加权熵的概念和基本性质,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.6 各种熵之间的关系,2.1.5 平均互信息,有信源,构造重量空间,重量,,即 权重系数。,加权熵从某种程度上反映了人的主观因素。,加权熵的性质:,信源平均每发出一个消息,总能提供一定的信息量,最差是零。,连续性,非负性,1,2,信源空间中概率分量的微小波动,不会引起加权熵值的很大变动。,表明熵的总体特性。,对称性,3,均匀性,4,等重性,5,与香农熵的性质一致。,确定性,6,在一定程度上反映了认识主体的主
20、观意志,具有效用和意义的含义。,非容性,7,扩展性,线性叠加性,8,9,当所有权重系数都为1时,有,香农最大熵可看成是加权熵在权重系数都为1时的特例。,加权熵的最大值,10,2.1.4 加权熵的概念和基本性质,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.6 各种熵之间的关系,平均互信息量,平均互信息,一、平均互信息量的定义,平均交互信息量;交互熵,同理,X对Y的平均互信息:,(2.1.44),(2.1.45),信道中流通信息量的整体测度。,二、平均互信息的物理意义,平均互信息量是收到Y前、后关于X的不确定度减少的量,即由Y获得的
21、关于X的平均信息量。,1,平均互信息量是发送X前、后,关于Y的平均不确定度减少的量。,2,3,平均互信息量等于通信前、后,整个系统不确定度减少的量。,信息就是负熵从一个事件获得另一个事件的平均互信息需要消除不确定度,一旦消除了不确定度,就获得了信息。,1,2,3,等概率信源的熵最大。,4,5,6,7,三、平均互信息的性质,对称性,1,非负性,2,极值性,1,3,2,凸函数性,4,证(略),1,求平均互信息I(X;Y),如图,2,I(X;Y)随信道变化的曲线,如图,图2.1.10,多次处理信息量将减少,图2.1.8数据处理模型,数据处理定理,5,结论:两级串联信道输入与输出消息之间的平均互信息量
22、既不会超过第级信道输入与输出消息之间的平均互信息量,也不会超过第级信道输入与输出消息之间的平均互信息量。当对信号/数据/消息进行多级处理时,每处理一次,就有可能损失一部分信息,也就是说数据处理会把信号/数据/消息变成更有用的形式,但是绝不会创造出新的信息。这就是所谓的信息不增原理。当已用某种方式取得Y后,不管怎样对Y进行处理,所获得的信息不会超过I(X;Y)。每处理一次,只会使信息量减少,至多不变。也就是说在任何信息流通系统中,最后获得的信息量,至多是信源提供的信息。一旦在某一过程中丢失了一些信息,以后的系统不管怎样处理,如果不能接触到丢失信息的输入端,就不能再恢复已丢失的信息。,例题:p36
23、,多次测量,多次测量的互信息量要比单次测量的互信息量大,证(略),2.1.6 各种熵之间的关系,2.1.1 单符号离散信源的数学模型,2.1.2 自信息和信源熵,2.1.3 信源熵的基本性质和定理,2.1.4 加权熵的概念和基本性质,2.1.5 平均互信息,学而不思而罔,思而不学则殆。孔子,昨晚多几分钟的准备,今天少几小时的麻烦。,2.1 单符号离散信源,2.3 连续信源,2.2 多符号离散平稳信源,2.4 离散信源无失真编码定理,随机矢量中的各随机变量的统计特性都不随时间推移而变化。,2.2.1 序列信息的熵,2.2.3 平稳信源的熵和极限熵,2.2.2 离散平稳信源的数学模型,2.2.4
24、马尔可夫信源,2.2.5 信源冗余度,输出的消息序列中各符号之间无相互依赖关系的信源。亦称为单符号离散平稳无记忆信源的扩展信源。,序列长度就是扩展次数。,单符号信源0,1经过扩展,,变成了:00,01,10,11,可证明序列信息的熵为,单符号信源如下,求二次扩展信源熵,扩展信源:,2.2.1 序列信息的熵,2.2.3 平稳信源的熵和极限熵,2.2.2 离散平稳信源的数学模型,2.2.4 马尔可夫信源,2.2.5 信源冗余度,各维联合概率均与时间起点无关的完全平稳信源。,2.2.1 序列信息的熵,2.2.3 平稳信源的熵和极限熵,2.2.2 离散平稳信源的数学模型,2.2.4 马尔可夫信源,2.
25、2.5 信源冗余度,反映信源记忆特性的两方法:,用联合概率反映信源记忆特性,用条件概率反映信源记忆特性,1,2,二维信源,1,一般地,例,原始信源:,条件概率:,平均符号熵:,N维信源,2,由平稳性:,平均符号熵:,极限熵:,2.2.1 序列信息的熵,2.2.3 平稳信源的熵和极限熵,2.2.2 离散平稳信源的数学模型,2.2.4 马尔可夫信源,2.2.5 信源冗余度,有记忆的特点:,有限的相关符号组构成的序列,有限记忆长度;,发出一个个符号,每发一个符号状态要发生转移。,信源输出不仅与符号集有关,而且与状态有关;,1,2,3,以信源输出符号序列内各符号间条件概率来反映记忆特性的一类信源。,某
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 信源
链接地址:https://www.31ppt.com/p-6549784.html