信息的度量修改.ppt
《信息的度量修改.ppt》由会员分享,可在线阅读,更多相关《信息的度量修改.ppt(86页珍藏版)》请在三一办公上搜索。
1、第二章:信息的度量,一、自信息和互信息,二、平均自信息,三、平均互信息,第二章:信息的度量,1.自信息2.互信息,一、自信息和互信息,二、平均自信息,三、平均互信息,平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1.自信息(量),公理性条件:(1)如果p(x1)I(x2),I(xi)是 p(xi)的单调递减函数;(2)如果p(xi)=0,则I(xi);如果p(xi)=1,则I(xi)=0;(3)由两个相对独立的事件所提供的信息量,应等于它们分别提供的信息量之和:I(xi yj)=I(xi)+I(yj),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1.自信息(量)(
2、续1),随机事件 的自信息定义为该事件发生概 率的对数的负值:关于对数底的选取:以2为底,单位为比特(bit)以e为底,单位为奈特(nat)以10为底,单位为哈特莱(Hartley)一般都采用以2为底的对数,为了书写简洁,有时把底数2略去不写。,1.自信息(量)(续2),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,单位之间的换算关系:,1奈特=log2 e 比特=1.443比特 1哈特莱=log210 比特=3.322比特 1 r进制单位=log2r 比特,自信息可以从两个方面来理解:自信息是事件发生前,事件发生的不确定性。自信息表示事件发生后,事件所包含的信息量。,试问四进制
3、、八进制的每一波形所含的信息量是二进制每一波形所含的信息量的多少倍?,1.自信息(量)(续3),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1.自信息(量)(续4),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例1:设在甲袋中放入n个不同阻值的电阻,随意取出一个,求当被告知“取出的电阻阻值为 i”时所获得的信息量。,解:,比特,由于是随意取出一个电阻,所以取出任意阻值的电阻的概率相等:,例2:在乙袋中放入 个电阻,其中阻值为1 的1个,2 的2个,n 的 n个,随意取出一个,求被告知“取出的电阻阻值为1”和“取出的电阻阻值为n”时分别获得的信息量。解:,1.自信
4、息(量)(续5),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1.自信息(量)(续6),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1.自信息(量)(续7),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例3:设在A袋放入n个不同阻值的电阻,随意取出一个,求当被告知“取出的电阻阻值为i”时所获得的信息量。在B袋中放入m种不同功率的电阻,任意取出一个,求被告知“取出的电阻功率为j”时获得的信息量。在C袋中放入n种不同阻值,而每种阻值又有m种不同功率的电阻,即共有nm个电阻,随意选取一个,被告知“取出的电阻阻值为i,功率为j”时获得的信息量。,1.自信
5、息(量)(续8),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,I(xi)=logp(xi)=log n 比特I(yj)=logp(yj)=log m 比特I(xi yj)=logp(xi yj)=log(n m)=I(xi)+I(yj)比特,解:对应A,B,C三袋,随意取出一个电阻事件的概率分别为:,因此,1.自信息(量)(续9),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例4:设在一正方形棋盘上共有64个方格,如果甲将一粒棋子随意的放在棋盘中的某方格且让乙猜测棋子所在位置。(1)将方格按顺序编号,令乙猜测棋子所在的顺序号。问猜测的难易程度。(2)将方格按行和
6、列编号,甲将棋子所在方格的列编号告诉乙之后,再令乙猜测棋子所在行的位置。问猜测的难易程度。,解:p(xi yj)=1/64 i=1,2,8;j=1,2,8(1)I(xi yj)=logp(xi yj)=6 比特(2)I(xi|yj)=logp(xi|yj)=logp(xi yj)/p(yj)=3 比特 I(xi)=logp(xi)=3 比特 I(yj)=3 比特,1.自信息(量)(续10),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,2.互信息(量),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,设X为信源发出的离散消息集合;Y为信宿收到的离散消息集合;信源发出的
7、消息,经过有噪声的信道传递到信宿;,X,Y,2.互信息(量)(续1),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,X,Y,xi,xi,无噪,I(xi),p(xi),p(xi|yj),I(xi),yj,I(xi;yj)=I(xi)I(xi|yj),先验概率:信源发出消息 的概率。后验概率:信宿收到消息 后推测信源发出 的概率,即条件概率。,2.互信息(量)(续2),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,互信息定义为:互信息有两方面的含义:表示事件 出现前后关于事件 的不确定性减少的量;事件 出现以后信宿获得的关于事件 的信息量。,2.互信息(量)(续3),平
8、均自信息,平均互信息,自信息和互信息,第二章:信息的度量,讨论:,(3)p(xi|yj)=1,(2)若 p(xi)p(xi|yj)则,I(xi;yj)0,(1)统计独立 p(xi|yj)=p(xi),I(xi|yj)=I(xi),I(xi;yj)=0,若 p(xi)p(xi|yj)则,I(xi;yj)0,I(xi;yj)=logp(xi|yj)logp(xi)=I(xi)I(xi|yj),2.互信息(量)(续4),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例5:某地二月份天气构成的信源为 某一天有人告诉你:“今天不是晴天”,把这句话作为收到的消息y1,求当收到y1后,y1与各
9、种天气的互信息量。解:,2.互信息(量)(续5),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,2.互信息(量)(续6),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,观察者站在输出端 I(xi;yj)=logp(xi|yj)logp(xi)=I(xi)I(xi|yj):对 yj 一无所知的情况下 xi 存在的不确定度;:收到 yj 后 xi 仍然存在的不确定度;互信息:收到 yj 前和收到 yj 后不确定度被消除的部分。,2.互信息(量)(续7),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,观察者站在输入端 I(yj;xi)=logp(yj|xi)
10、logp(yj)=I(yj)I(yj|xi)观察者得知输入端发出 xi 前、后对输出端出现 yj 的不确定度的差。,I(yj;xi)=I(xi;yj)?,平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,观察者站在通信系统总体立场上互信息等于通信前后不确定度的差值,通信前:X和Y之间没有任何关系,即X、Y统计独立,p(xi yj)=p(xi)p(yj),先验不确定度为 通信后:p(xi yj)=p(xi)p(yj|xi)=p(yj)p(xi|yj),后验不确定度,2.互信息(量)(续8),2.互信息(量)(续9),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,1)互信息
11、的对称性2)互信息可为正值、负值,或为03)任何两个事件之间的互信息不可能大于其中任一事件的自信息,互信息量的性质,2.互信息(量)(续10),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,用公式表示为:互信息的对称性表明:从yj得到的关于xi的信息量 与从xi 得到的关于 yj的信息量 是一样的,只是观察的角度不同而已。,1)互信息的对称性,2.互信息(量)(续11),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,当后验概率大于先验概率时,互信息为正。说明事件yj的出现有助于消除事件xi的不确定度。当后验概率小于先验概率时,互信息为负。说明收信者未收到 yj 以前
12、,对消息xi是否出现的猜测难度较小,但接收到消息 yj 后对 xi 是否出现的猜测的难度增加了,也就是收信者接收到消息 yj 后对 xi出现的不确定性反而增加,所以获得的信息量为负值。当后验概率与先验概率相等时,互信息为零。这就是两个随机事件相互独立的情况。表明xi和yj之间不存在统计约束关系,从yj得不到关于xi的任何信息,反之亦然。,2)互信息可正可负,可为零,3)任何两个事件之间的互信息不可能大于其中任一事件的自信息,2.互信息(量)(续12),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例6:居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6m以上的,
13、而女孩中身高1.6m以上的占总数一半。假如我们得知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息量?,2.互信息(量)(续13),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,2.互信息(量)(续14),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,解:x=某女孩是大学生;y=某女孩身高1米6以上。则有“身高1米6以上的某女孩是女大学生”为事件,2.互信息(量)(续15),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,例7:已知信源发出 和 两种消息,且。此消息在二进制对称信道上传输,信道传输特性为。求互信息量 和。,2.互信息(量)(续1
14、6),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,解:由已知,可得,2.互信息(量)(续17),平均自信息,平均互信息,自信息和互信息,第二章:信息的度量,第二章:信息的度量,一、自信息和互信息,二、平均自信息,三、平均互信息,1.平均自信息的概念2.熵函数的性质3.联合熵与条件熵,1.平均自信息的概念,自信息和互信息,平均互信息,平均自信息,第二章:信息的度量,平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵):,自信息是一个随机变量:自信息是指信源发出的某一消息所含有的信息量。不同的消息,它们所含有的信息量也就不同。,自信息和互信息,平均互信息,平均自信息,第二章:
15、信息的统计度量,信息熵的单位,取决于对数选取的底:以2为底,单位为比特/符号以e为底,单位为奈特/符号以10为底,单位为哈特莱/符号。,信息熵的意义:信源的信息熵是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其信息熵也不同。,1.平均自信息的概念(续1),1.平均自信息的概念(续2),自信息和互信息,平均互信息,平均自信息,第二章:信息的度量,通常把一个随机变量的样本空间和样本空间中的元素对应的概率称为概率空间。,离散随机变量 的概率空间为:,1.平均自信息的概念(续3),自信息和互信息,平均互信息,平均自
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 度量 修改

链接地址:https://www.31ppt.com/p-6242062.html