信息论与编码基础教程第二章.ppt
《信息论与编码基础教程第二章.ppt》由会员分享,可在线阅读,更多相关《信息论与编码基础教程第二章.ppt(198页珍藏版)》请在三一办公上搜索。
1、张丽英、制作,本章第二次课,本章第三次课,本章第四次课,本章第五次课,复习:,1.信息的基本理论的出处,美国科学家C.E.Shannon 于1948年发表的著名论文通信的数学理论.,2.什么是信息,信息是事物运动状态或存在方式的不确定性的描述。,(香农),3.基本通信系统的组成,2.1信源及分类2.2单符号离散信源2.3多符号离散信源2.4连续信源2.5冗余度,第2章 信源及信源熵,本次课讲的内容,相关知识复习2.1信源及分类2.2单符号离散信源单符号离散信源的数学模型自信息量,概率论知识复习,基本事件:随机试验的每一个可能的结果(样本点)。样本空间:基本事件的集合。复杂事件:多个基本事件所组
2、成的事件。随机事件:无论基本事件还是复杂事件,它们在试验中发生与否,都带有随机性。,相关知识复习,事件域:基本事件和复杂事件是样本空间的子集,所有子集的全体。概率空间:三要素 样本空间、事件域(集合)、概率。事件A的概率:A中样本点数与样本空间中样本点之比。先验概率:根据以往的统计规律得到的。,相关知识复习,必须掌握的概率论知识,1)条件概率2)联合概率,相关知识复习,3)全概率:设 B1,B2,是一列互不相容的事件(B i B j=0),且有B1B2=(样本空间);P(Bi)0,i=1,2,则对任一事件A,有:,相关知识复习,4)贝叶斯(Bayes)公式:设B1,B2,是一列互不相容的事件(
3、B i B j=0),且有B1B2=(样本空间);p(Bi)0,i=1,2,则对任一事件A,有:,相关知识复习,第2章 信源及信源熵,2.1信源及分类1.信源的描述直观地说:信源就是信息的来源。确切地说:信源是产生消息(符号)、消息序列、连续消息的来源。,2.1信源及分类,信源发出了消息,消息载荷着信息,信息具有不确定性。从数学分析上看,由于消息具有的不确定性,因此信源可以看成是产生随机变量、随机序列(矢量)和随机过程的源。在实际通信中最常见的信源有话音、文字、图像、数据等。,2.1信源及分类,从信源发出的消息在时间上和幅度上的分布来考虑分类,可将其分为离散信源和连续信源。离散信源:指发出在时
4、间和幅度上都是离散 分布的离散消息的信源。如:文字、数字、数据、字母等。,2.信源的分类,2.1信源及分类,离散信源又可分为无记忆离散信源和有记忆离散信源。无记忆离散信源:发出的各个符号是相互独立 的;各符号序列中的各个符号 之间是没有统计关联的关系。各个符号的出现概率是它自身 的先验概率。无记忆离散信源包含发出单符号的无记忆离散信源和发出符号序列的无记忆离散信源。,2.1信源及分类,有记忆离散信源:发出的各个符号是相关 联的。表述起来很困难。有记忆离散信源又可分为发出符号序列的有记忆离散信源和发出符号序列的马尔可夫信源。,2.1信源及分类,当记忆长度为m+1时称这种记忆信源为m阶马尔可夫信源
5、,即信源每次发出的符号与前m个符号有关,与更前面的符号无关。假设m阶马尔可夫信源输出的随机序列为X=X1 X2Xi-1Xi XN。在这序列中某i时刻的随机变量X取什么符号只与前m个随机变量Xi-1 Xi-2 Xi-m取什么符号有关,与其更前面的随机变量以及后面的随机变量取什么符号都无关。这样就可以用马尔可夫链来描述此信源。,2.1信源及分类,连续信源:指发出在时间和幅度上都是连续分布 的连续消息(模拟消息)的信源。如:语言、图像、视频等。,2.1信源及分类,2.2单符号离散信源,2.2.1 单符号离散信源的数学模型 单符号离散信源输出的消息是以一个符号的形式出现.如:文字、数字、字母、等符号。
6、信源每次只发出一个符号代表一个消息,可用离散随机变量来描述。,2.2单符号离散信源,2.2单符号离散信源,定义一个离散无记忆信源是由n个符号消息组成的集合:X=a1,a2 an,,这n个符号消息的概率分布是:,称为符号ai 的先验概率,散信源数学模型表示为:,从概率的角度看,可以将符号消息ai 看一个随机事件。因此ai 具有不确定性。,0p(ai)1,,注意:大写字母X、Y、Z等代表随机变量,指的是信源的整体;而带有下标的小写字母ai,bj,ck等代表随机事件的某一结果或信源的某个元素。,2.2单符号离散信源,【例2.2-1】掷一颗质地均匀的骰子研究其下落后朝上一面的点数,每次实验结果必然是1
7、,26点中的某一个面朝上。信源输出的消息是“朝上面是一点”,“朝上面是两点”,“朝上面是六点等,六6个不同的消息。每次实验只能出现一种消息,出现哪一种消息是随机的,但必是六6种情况中的一种。用ai,(i=1,6)来表示这些消息,得到信源的样本空间为符号集 A=a1,a2,a3,a4,a5,a6。,2.2单符号离散信源,各消息都是等概率出现的,用一个离散型随机变量X来描述这个信源的输出的消息。这个随机变量X的样本空间就是符号集A,X的概率分布就是各消息出现的先验概率:p(a1)=p(a2)=p(a3)=p(a4)=p(a5)=p(a6)=1/6,信源的数学模型为:,2.2单符号离散信源,2.2.
8、2 自信息量 1.自信息量定义 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。,2.2单符号离散信源,当随机事件ai发生以前,I(ai)表示事件ai的不确定性;当随机事件ai发生以后,I(ai)表示事件ai所含有(或所提供)的信息量。注意:信息量是数值,信息量单位只是为了表示 不同底数的对数值,并没有量纲的含义。,2自信息量的意义,2.2单符号离散信源,2.2单符号离散信源,【例2.2-2】英文字母中“e”出现的概率是0.105,“c”出现的概率是0.023,“o”出现的概率是0.001。分别计算其自信息量。解:“e”:I(e)=20.105=3.25(比特)“c”:
9、I(c)=20.023=5.44(比特)“o”:I(o)=20.001=9.97(比特),2.2单符号离散信源,【例2.2-3】某地二月份天气的概率分布统计如下:晴天的概率是1/2,阴天的概率是1/4,雨天的概率是1/8,雪天的概率也是1/8。求此四种气候的自信息量分别的是多少?,解:数学模型如下:这四种气候的自信息量分别为:I(a2)=2(比特),I(a3)=3(比特),I(a4)=3(比特)。,2.2单符号离散信源,(1)I(ai)是非负值随机事件发生的概率为p(a),则p(a)0,1,p(a)为负值,由对数性质可知,若 p(a)为负值,则-p(a)恒为非负值.,3.自信息量I(ai)性质
10、,2.2单符号离散信源,当p(a)=1时,I(a)=0P(a)=1说明该事件是必然事件,不含有任何不确定性,所以不含有任何信息量。,当p(a)=0时,I(a)=P(x)=0说明该事件是不可能事件。不可能事件一旦发生,带来的信息量非常大。称信息爆炸。,2.2单符号离散信源,I(a)是p(a)的单调递减函数,p(a)0,1,1/p(a)1,,且随着p(a)的增大而减小。由式I(a)=p(a)可知I(a)=1/p(a)也随着p(a)的增大而减小。用求导的方法也很容易证明I(a)是p(a)的单调递减函数。,2.2单符号离散信源,I(a,b)=I(a)+I(b),可加性,注:a是一个随机变量,I(a)是
11、a的函数,也是一 个随机变量。,如两个独立信源符号一起出现,P(a,b)=p(a)p(b);logp(a,b)=logp(a)p(b)=logp(a)+logp(b),2.2单符号离散信源,2.2单符号离散信源,4.联合自信息量,两个随机事件的离散信源数学模型为,其中0p()1(i=1,2,n;j=1,2,m)。,联合自信息量,用I()表示,即:,I()=2p(),当X与Y相互独立时,I()=2p(),说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之和。,2.2单符号离散信源,5.条件自信息量,定义:在二维联合集XY中,设在bj条件下,发生ai
12、的条件概率为p(ai/bj),那么它的条件自信息量I(a/bj)定义为:,表示在特定的条件(bj已定)下,随机事件ai发生所带来的信息量。,2.2单符号离散信源,6.自信息量、联合自信息量和条件自信息量三者之间的关系,2.2单符号离散信源,【例2.2-4】居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上,而女孩中身高1.6米以上的占总数一半。假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?,解:设事件A为女孩是大学生;设事件B为女孩身 高1.6米以上。则:p(A)=0.25 p(B)=0.50 p(B/A)=0.75,2.2单符号离散信源,2
13、.2单符号离散信源,“身高1.6米以上的某女孩是大学生”表明在B事件发生的条件下,A事件发生,所以其概率为p(A/B)。由贝叶斯定律公式:由“身高1.6米以上的某女孩是大学生”,获得信息量为,【例2.2-4】居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上,而女孩中身高1.6米以上的占总数一半。假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?,【例2.2-5】一信源有4种输出符号码,Xi(i=0,1,2,3),且p(Xi)=1/4。设信源向信宿发出X3,但由于传输中的干扰,接收者收到X3后,认为其可信度为0.9。于是信源再次向信宿发送该符号(
14、X3),信宿无误收到。问信源在两次发送中发出的信息量各是多少?信宿在两次接收中得到的信息量又各是多少?,2.2单符号离散信源,解:第一次收到的符号为y,第二次发送无误收到,发、收信息量相等,则 I(X3/y)=-log2p(Xi/y)=-log20.9=0.15(比特)第一次发出的信息量为 I(X3)=-log2p(Xi)=-log20.25=2(比特)第一次传送的信息量为两次发送信息量之差,即 I(X3;y)=I(X3)-I(X3/y)=1.85(比特),2.2单符号离散信源,2-1同时掷2颗色子,事件A、B、C分别表示:(A)仅有一个色子是3;(B)至少有一个色子是4;(C)色子上点数的总
15、和为偶数。试计算事件A、B、C发生后所提供的信息量。,2-2设在一只布袋中装有100只对人手的感觉完全相同的木球,每只球上涂有一种颜色。100只球的颜色有下列三种情况:(1)红色球和白色球各50只;(2)红色球99只,白色球1只;(3)红、黄、蓝、白色各25只。求从布袋中随意取出一只球时,猜测其颜色所需要的信息量。,2-3一信源有6种输出状态,概率分别为p(A)=0.5,p(B)=0.25,p(C)=0.125,p(D)=p(E)=0.05,p(F)=0.025。试计算H(X),然后求消息ABABBA和FDDFDF的信息量(设信源先后发出的符号相互独立的),并将其与长度为6位的消息序列信息量的
16、期望值相比较。,1.什么是信源:,是发出消息的源,是信息的来源。,2.信源的分类,连续信源,离散信源,复习,例:离散无记忆信源单个符号 X=0,1 X=A,B,Z 符号序列 X=00,01,10,11 X=AA,AB,AZ,BA,BB,BZ,ZZ,3.信源的数学模型,复习,4、自信息 一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。I(xi)=logp(xi),复习,本次课内容,2.2.3 信源熵2.2.4 信源熵的基本性质和定理,1信源熵定义我们已知单符号离散无记忆信源的数学模型,2.2.3 信源熵,2.2.3 信源熵,自信息量指的是某一信源发出某一消息所含的信息,不能作为
17、整个信源的信息测度。信源整体的信息量如何测定呢?我们可以定义信源各个离散消息的自信量的数学期望为信源的平均信息量,以此来测定信源整体的信息量。,第2章 信源及信源熵,2.2.3 信源熵,这个平均信息量的表达式与统计物理学中热熵的表达式很相似,在概念上两者也有相似之处。因此,借用“熵”这个词,把信源整体的信息量称为信息熵,也叫信源熵或香农熵.用H(X)来表示.,2.2.3 信源熵,信源熵定义:概率空间中每个事件所含有的自信息量的数学期望称信源熵。,单位:以2为底的对数时是比特/符号(bit/symbol);以e为底的对数时是奈特/符号(nat/symbol);以10为底的对数时是哈特/符号(ha
18、rt/symbol),2.2.3 信源熵,第2章 信源及信源熵,2信源熵物理含义(1)信息熵H(X)表示了信源输出前,信源的平均不确定性;(2)信息熵H(X)表示了信源输出后,每个消息或符号所提供的平均信息量;(3)信息熵H(X)反映了随机变量X的随机性。,2.2.3 信源熵,【例2.2-6】一个布袋内放有100个球,其中80个球是红色的,20个球是白色的,问:(1)若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。(2)若每次摸出一个球后又放回袋中,再进行下一次的摸取,那么如此摸取n次后,求平均摸取一次所能获得的自信息量。,2.2.3 信源熵,【例2.2-6】一个布袋内放有10
19、0个球,其中80个球是红色的,20个球是白色的,问:(1)若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。(2)若每次摸出一个球后又放回袋中,再进行下一次的摸取,那么如此摸取n次后,求平均摸取一次所能获得的自信息量。,解:(1)概率空间为:x1表示摸出的球为红球,x2表示摸出的球为白球当被告知摸出的是红球,则获得的信息量是:I(x1)=p(x1)=0.8(比特)当被告知摸出的是白球,则获得的信息量是:I(x2)=p(x2)=0.2(比特)H(x)=-p(x1)p(x1)-p(x2)p(x2),2.2.3 信源熵,(2)每次摸出一个球后又放回袋中,再进行下一次的摸取,如此摸取n次
20、后,红球出现的次数为np(x1)次,白球出现的次数为np(x2)次。随机摸取n次后共获得信息量为:平均摸取一次所能获得的自信息量为:,=0.72(比特/次),np(x1)I(x1)+np(x2)I(x2),2.2.3 信源熵,此例说明:自信息量I(x1)和I(x2)只是表征信源中各个符号的不确定度,一个信源总是包含着多个符号消息,各个符号消息又按概率空间的先验概率分布,因此各个符号的自信息量就不同。所以自信息量不能作为信源总体的信息量;可以用平均自信息量H(x),即信息熵H(x)从平均意义上来表征信源的总体特征,也可以表征信源的平均不确定性。,2.2.3 信源熵,【例2.2-7】某地二月份天气
21、的概率分布统计如下:晴天的概率是1/2,阴天的概率是1/4,雨天的概率是1/8,雪天的概率也是1/8。求信源熵是多少?解:信源的概率空间,=1.75(比特/符号),2.2.3 信源熵,3条件熵定义:在联合符号集XY上的条件自信息量的数学期望,用H(X/Y)表示。在已知随机变量Y的条件下,随机变量X的条件熵H(X/Y)定义为,2.2.3 信源熵,在已知随机变量X的条件下,随机变量X的条件熵H(Y/X)定义为,条件熵表示信宿在收到Y后,信源X仍然存在的不确定度。这是传输失真所造成的。称H(X/Y)称为信道疑义度,或损失熵;H(Y/X)称为信道散布度,或噪声熵。,2.2.3 信源熵,【例2.2-8】
22、已知X,Y0,1,X,Y构成的联合概率为p(00)=p(11)=1/8,p(01)=p(10)=3/8,计算条件熵H(X/Y)。解:,题中已知p(xiyj),需求p(xi/yj)p(xi/yj)=p(xiyj)/p(yj),已知p(xiyj),求p(yj),2.2.3 信源熵,当j=0时,p(y1=0)=p(x1y1=00)+p(x2y1=10)=1/8+3/8=4/8=1/2当j=1时,p(y2=1)=p(x1y2=01)+p(x2y2=11)=1/8+3/8=4/8=1/2P(0/0)=p(x=0,y=0)=p(x1y1)/p(y1)=p(00)/p(0)=(1/8)(1/2)=1/4=p
23、(1/1)同理有p(1/0)=p(0/1)=3/4H(X/Y)=-1/8(1/4)-3/8(3/4)-3/8(3/4)-1/8(1/4)=0.406(比特/符号),2.2.3 信源熵,4联合熵(共熵)定义:联合离散符号集XY上的每个元素对xiyj的 联合自信息的数学期望.,H(XY)表示XY同时发生的不确定度。,2.2.3 信源熵,第2章 信源及信源熵,5信源熵、条件熵、联合熵之间的关系 H(XY)=H(X)H(Y/X)H(XY)=H(Y)H(X/Y)条件熵小于无条件熵,H(Y/X)H(Y)。当且仅当y和x相互独立p(y/x)=p(y),H(Y/X)=H(Y)。两个条件下的条件熵小于一个条件下
24、的条件熵H(Z/X,Y)H(Z/Y)当且仅当p(z/x,y)=p(z/y)时取等号。,2.2.3 信源熵,联合熵小于等于信源熵之和,H(YX)H(Y)+H(X)当两个集合相互独立时得联合熵的最大值 H(XY)max=H(X)+H(Y),信源熵、条件熵、联合熵之间的关系,2.2.3 信源熵,例2.2-9二进制通信系统采用符号“0”和“1”,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个“0”发出;u1:一个“1”发出;v0:一个“0”收到;v1:一个“1”收到。给定下列概率,p(u0)=1/2,p(v0/u0)=3/4,p(v0/u1)=1/2。求:(1)已知发出一个“0”,收到
25、符号后得到信息量;(2)已知发出的符号,收到符号后得到的信息量;(3)知道发出的和收到的符号能得到的信息量;(4)已知收到的符号,被告知发出的符号得到信息量。,2.2.3 信源熵,2.2.3 信源熵,解:(1)已知发出一个“0”,收到符号后得到的信息,例2.2-9二进制通信系统采用符号“0”和“1”,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个“0”发出;u1:一个“1”发出;v0:一个“0”收到;v1:一个“1”收到。给定下列概率,p(u0)=1/2,p(v0/u0)=3/4,p(v0/u1)=1/2。,2.2.3 信源熵,(2)已知发出的符号,收到符号后得到的信息量.,联
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 基础教程 第二
链接地址:https://www.31ppt.com/p-6549782.html