离散信源与信息熵(上).ppt
《离散信源与信息熵(上).ppt》由会员分享,可在线阅读,更多相关《离散信源与信息熵(上).ppt(72页珍藏版)》请在三一办公上搜索。
1、北京交通大学信息科学研究所,信息论基础Elements of Information Theory北京交大计算机与信息技术学院信息科学研究所现代信号处理与通信研究室教学九楼六层北606主讲:丁晓明 TEL:51688636;ftp:/202.112.147.192/sopc;ssopcE,第二章:信息的度量与信息熵(The measure of Information&Entropy)2.1 自信息与条件自信息(selfinformation&conditional selfinformation)2.2 自互信息与条件自互信息(selfmutual information&condition
2、al selfmutual information),信 息 论 基 础,第二章.信息的度量与信息熵,2.1 自信息与条件自信息(selfinformation&conditional selfinformation)2.1.1 自信息(自信息量)若一随机事件的概率为,它的自信息的数学定义为:,def,首先解释一下自信息与自信息量的区别:信息是概念上的涵义,而信息量则是有单位,有数值大小的量。自信息则是一个具体事件的不确定度,而自信息量应是不确定度的解除量,二者仅在该事件完全确知后信息量才等于自信息。换句话说:自信息反映的是随机事件的不确定度完全被解除后的信息量。自信息为什么一定是这样的定义?
3、是否一定是对数形式?,2.1 自信息与条件自信息,因为信息是与随机事件的不定度密切相关,所以它的度量应是事件概率的函数。设:,4.两个独立的随机事件 和,它们联合事件的自信息,应是它们各自信息的和,即:要保证 的函数形式对上述四个公理化条件均满足,则此函数一定是对数形式;这就是定义的唯一性定理(uniqueness)。,2.1 自信息与条件自信息,例21 一副充分洗乱了的扑克牌(所给的牌是52张),试问:任意一副特定排列所给出的自信息是多少?若从中抽取十三张牌,当给出的点数均不相同时可 得到多少信息量?题解:任意一特定排列,即意味着第一张牌的取法有52种;第二张牌的取法有51种;。一共有52!
4、种排列,所以每一种排列的概率为:,2.1 自信息与条件自信息,若从m个元素中抽取n个元素 的取法就是组合:,1.,又因为要保证所抽取的牌中点数均不相同,则可设想以下排列,每一点数有四种花色;根据点数的位置构成13张的排列数:1,2,3,4,,13 4 4 4 4 4=,2.1 自信息与条件自信息,就是从52张牌中抽取13张牌的取法,则:,2.1 自信息与条件自信息,2.1.2 条件自信息(conditional self-information)定义:为条件自信息,同样有:,def,定义所表达的是一个联合事件xy,在某一个变量x(或y)被确知之后,另一个变量y(或x)还剩下的不确定度;或者说另
5、一个变量y(或x)将还能带给接收者多么大的信息量。,例22 棋盘与棋子 题解:前提,当棋子落入棋盘的位置是任意的;若将棋盘的行数编号为,棋盘的列数编号为;则棋子落入任何一格的概率均相等,为:,设在一正方形棋盘上共有64个棋格,如甲随意将棋子放入一格中让乙猜棋子落入位置,(1)若将棋格按顺序编号,令乙猜测棋子所在棋格的顺序号?(2)若棋格按行与列编号,当甲将棋子所在的行号(列号)告诉乙后,在令乙猜棋子的位置?,2.1 自信息与条件自信息,如果编码为:,且,,例23.某地女孩中有25%是大学生,她们其中75%是身高1.6m以上;而女孩中身高1.6m以上者超过一半。题解:设女孩中有大学生的概率为,或
6、者说女孩是大学生是一随机事件;另设女孩中身高超过1.6m以上者为另一随机事件,其概率为:,又因女孩大学生中超过1.6m者的概率为:所问:当某女孩是身高1.6m以上,且她是大学生,则我们将得到多少信息量?即:为什么不是求:,2.1 自信息与条件自信息,从以上例题可以看出联合事件的自信息与单一事件和条件自信息的关系,即联合事件的自信息可以看成是某一事件的自信息加上此事件发生后另一事件所剩的条件自信息。为什么联合事件的自信息一定大于条件自信息呢?这实际上是自信息与条件自信息之间的概念差别,我们从系统模型分析出发加深理解。,2.1 自信息与条件自信息,显然:,在信源发出消息事件 之后,将通过信道传输由
7、信宿接收。如果信道是透明传输,则输出也一定是,但实际是收到加噪声后的事件。因此如何根据收端接受到的事件判断发方所发的消息,这是通信译码准则所决定。但我们所关心的是如何依据理论分析来得到这些判决准则?,2.1 自信息与条件自信息,首先我们认为发端是以某种先验概率(Prior Probability)在发送消息,(即信源在发送消息之前就以统计出的概率)而另一种概率:则表达当收端已收到某种消息后,再统计发端的发送概率,所以此条件概率称为后验概率(Posterior Probability)。,因此我们说事件 以及它所对应的先验概率 而定义出的自信息,所表达的不论事件是否有人接收这个事件它所固有的不确
8、定度,或者说它所能带来的信息量。而消息事件 它所对应的条件概率是在收端接收到已干扰的消息后的后验概率,如果当它为1则属于透明传输;若,说明事件发生之后多少也解除了事件 的部分不定度,即得到了事件 的部分信息。由于概率越大,不定度越小。从客观上讲,条件自信息一定不会大于无条件的自信息。同时也反映出要得知一些条件,原事件的不定度一定会减少,最坏的情况也不过保持不变,即条件与事件无关。,2.1 自信息与条件自信息,第二章.信息的度量与信息熵,2.2 自互信息与条件自互信息(selfmutual information&conditional selfmutual information),2.2.1
9、 自互信息,我们还是用系统模型来定义自互信息:,2.2.自互信息与条件自互信息,从上述系统模型中的两个随机变量的相互关系来分析自互信息的定义和概念,为方便先给出随机变量的概率空间及简写方式:随机变量 X,Y 分别由,;,给出,为了书写方便以后写成:,和,一.Definition of the self-mutual information:,2.2.自互信息与条件自互信息,下面介绍自互信息的物理概念:,两者之差即信息量的概念,所谓不确定度的解除量。因此我们说自互信息才是从数值上、概念上真正反映出信息量的含义。,为什么要称它为“互”?因为它具有互易性(mutuality):,2.2.自互信息与条
10、件自互信息,Bayes theorem,(statistical constraint extent),下面我们再分析两个特例:,2.2.自互信息与条件自互信息,可见自信息仅是自互信息的一个特例,即当随机事件 所含的不定度完全被解除掉以后,它的自信息就是自互信息。另一特例,当事件 与事件 相互独立时:则:,这说明事件 无法互相提供信息量,因为它门之间统计独立。,2.2.自互信息与条件自互信息,性质一、任何两个事件之间的自互信息不可能大于其中任何一事件的自信息。,因为自互信息表达的是不定度的解除量,是所获得新知识。要获得信息量就意味不确定度应有减少,否则信息量为零。这是从客观来描述事实,因此所谓
11、增加负信息,或者说增加了原有事物的不定度,应带有观察的主观性。,性质二、,2.2.自互信息与条件自互信息,例23.再举一个系统模型在理想状态下如何分析的实例。(Ideal Channel),2.2.自互信息与条件自互信息,2.2.自互信息与条件自互信息,同理:,2.2.自互信息与条件自互信息,二.Definition of the conditional self-mutual information:,如果:随机变量X和Y与及第三个随即变量Z分别属于三个不同的概率集合空间:,和,当这三个随机变量中任何一个确知后,另外两个变量之间的相互关系可由条件自互信息所定义。,前者表达的是当事件 给定之后
12、,事件 与 之间的自互信息。,而后者所描述的是单个事件 与联合事件 之间的自互信息。,由于自信息的可加性的存在,指使这两者之间有下列的关系:,2.2.自互信息与条件自互信息,下面 我们再从例题中加深理解这两个定义的区别:,2.2.自互信息与条件自互信息,2.2.自互信息与条件自互信息,2.2.自互信息与条件自互信息,下面我们从数学性质出发来证明几个自互信息与条件自互信息的互换关系。证:对于任意三个离散随机变量x,y 和 z 存在着下列关系:,One-to-one mapping,2.2.自互信息与条件自互信息,有了自互信息的定义以及与条件自互信息的转换关系,使我们日常生活中的许多事件,可以用数
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 离散 信源 信息
链接地址:https://www.31ppt.com/p-5371478.html