信息论总结与复习.ppt
《信息论总结与复习.ppt》由会员分享,可在线阅读,更多相关《信息论总结与复习.ppt(45页珍藏版)》请在三一办公上搜索。
1、信息论与编码 总结与复习,本课程主要内容,一个理论和三个编码:理论-香农信息论 编码-信源编码 信道编码 保密编码,第一部分、信息论基础,1.1 信源的信息理论:1、信息的定义:(1)自信息 I=log(1/p)=-log p(2)信息量=通信所消除掉的不确定度=通信前的不确定度-通信后的不确定度(3)信息的单位:对数的底取2时,自信息的单位叫比特(bit)。,第一部分、信息论基础 1.1 信源的信息理论,3、信息熵的特点(1)非负性:H(X)0(2)对称性:H(p1p2)=H(p2p1)(3)极值性:1离散信源各符号等概率时出现极大值:H0=log m,第一部分、信息论基础 1.1 信源的信
2、息理论,4、离散序列的信息熵(1)无记忆信源的联合熵与单符号熵:H(X1X2XN)=H(X1)+H(X2)+H(X3)+H(XN)=NH(X1)(2)有记忆信源的联合熵与条件熵:H(X1X2XN)=H(X1)+H(X2|X1)+H(X3|X1X2)+H(XN|X1X2XN-1)(3)平均符号熵:HN=H(X1X2XN)/N,第一部分、信息论基础 1.1 信源的信息理论,(4)序列信息熵的性质:1条件熵不大于无条件熵,强条件熵不大于弱 条件熵:H(X1)H(X2|X1)H(X3|X1X2)H(XN|X1X2XN-1)2条件熵不大于同阶的平均符号熵:HN H(XN|X1X2XN-1)3序列越长,平
3、均每个符号的信息熵就越小:H1 H2 H3 H N总之:H0 H1 H2 H3 HN H(无记忆信源取等号。),第一部分、信息论基础 1.1 信源的信息理论,第一部分、信息论基础 1.1 信源的信息理论,5、马尔可夫信源的信息熵(1)马尔可夫信源的数学模型和定义:N阶马尔可夫信源的关联长度是N+1,N+2以外不关联。(2)状态、状态转移与稳态概率:状态、状态转移、状态转移图、稳定状态、稳态方程(3)稳态符号概率:,结论:N阶马氏信源稳态信息熵(即极限熵)等于N+1阶条件熵。,(4)稳态信息熵:,例1 已知二阶马尔可夫信源的条件概率:p(0|00)=p(1|11)=0.8;p(0|01)=p(1
4、|10)=0.6;求稳态概率、稳态符号概率、稳态符号熵和稳态信息熵。解:二阶马氏信源关联长度=3,状态由2符号组成,共有 4个状态,分别为:E1=00;E2=01;E3=10;E4=11;已知的条件概率即是:p(0|E1)=p(1|E4)=0.8;p(0|E2)=p(1|E3)=0.6;根据归一化条件可求出另外4个状态符号依赖关系为:p(1|E1)=p(0|E4)=0.2;p(1|E2)=p(0|E3)=0.4;,第一部分、信息论基础 1.1 信源的信息理论,稳态方程组是:,第一部分、信息论基础 1.1 信源的信息理论,可解得:,稳态符号概率为:,稳态信息熵为:,=0.895 bit/符号,第
5、一部分、信息论基础 1.1 信源的信息理论,因此,稳态符号熵=1bit/符号。,第一部分、信息论基础 1.2 信道的信息理论,1.2 信道的信息理论:1、信道的数学模型:进入广义信道的符号为aiA;从广义信道出来的符号bj B;其前向概率为 pij=p(bj|ai)。传输矩阵:,2、信道的分类:(1)无噪无损信道:ai与bj是一一对应的,p(bj|ai)=ij,传输矩阵为单位方阵。(2)有噪有损信道:ai与bj多-多对应的,传输矩阵中所有的矩阵元都有可能不为零。特例是BSC信道。(3)有噪无损信道分组一对多(弥散),传输矩阵应具有一行多列的分块对角化形式。(4)无噪有损信道:分组多对一(归并)
6、,其传输矩阵应具有多行一列的分块对角化形式。(5)对称信道:传输矩阵的各行都是一些相同元素的重排,各列也是一些相同元素的重排。,第一部分、信息论基础 1.2 信道的信息理论,第一部分、信息论基础 1.2 信道的信息理论,3、信道有关的信息熵:(1)信源熵(先验熵):,(2)噪声熵(散布度):,(3)联合熵:,(4)接收符号熵:,(5)损失熵(后验熵):,第一部分、信息论基础 1.2 信道的信息理论,4.平均互信息(1)平均互信息的定义:系统完成一个符号从发到收的通信过程后,关于符号ai的不确定度的变化为:,统计平均而言,平均每收发一对符号信宿所获得的信息量为:,计算公式:I(X;Y)=H(X)
7、H(X|Y)=H(Y)H(Y|X)=H(X)+H(Y)H(XY),(2)平均互信息与信息熵之间的关系:,第一部分、信息论基础 1.2 信道的信息理论,第一部分、信息论基础 1.2 信道的信息理论,5.信道容量,例2已知信源先验概率p(x)=0.7,0.3,信道传输矩阵;试计算各信息熵和互信息。,H(XY)=-0.21log0.21 0.14log0.14 0.35log0.35 0.12log0.12 0.09log0.090.09log0.09=2.3924 bit/符号,解:(1)先验熵:H(X)=-0.7log20.7 0.3log20.3=(-0.7lg0.7 0.3lg0.3)/lg
8、2=0.881 bit/符号(2)联合熵:,第一部分、信息论基础 1.2 信道的信息理论,H(Y|X)=0.21log0.3 0.14log0.2 0.35log0.5 0.12log0.4 0.09log0.30.09log0.3=1.5114 bit/符号(4)接收符号熵:由,P(Y)=(0.21+0.12,0.14+0.09,0.35+0.09)=(0.33,0.23,0.44)H(Y)=1.5366 bit/符号,(3)噪声熵:,由 和,第一部分、信息论基础 1.2 信道的信息理论,H(X|Y)=-0.21log(7/11)-0.09log(9/44)=0.8558 bit/符号 或:
9、H(X|Y)=H(XY)-H(Y)=2.3924-1.5266=0.8558 bit/符号(6)平均互信息:I(X;Y)=H(X)-H(X|Y)=0.881 0.8558=0.0252 bit/符号,(5)损失熵:,第一部分、信息论基础 1.2 信道的信息理论,第一部分、信息论基础 1.2 信道的信息理论,(2)信道容量的定义:对于给定的信道,既然总存在一个信源能使互信息取极大值,就可以把这个极大值定义为该信道的信道容量:,信道容量反映了一个信道最大所能传输的平均互信息,是给定信道的属性。,第一部分、信息论基础 1.2 信道的信息理论,(3)信道容量的计算:对于简单信道要求能计算信道容量:1)
10、无损信道:C=maxI(X;Y)=maxH(X)=log m;2)无噪信道:C=maxI(X;Y)=maxH(Y)=log S;3)对称信道:C=maxI(X;Y)=logS-H(p1,p2,pS);,例3求对称信道 的信道容量。,解:C=log4-H(0.2,0.3,0.2,0.3)=2+(0.2log0.2+0.3log0.3)2=0.03 bit/符号;,第二部分、无失真信源编码,第二部分、无失真信源编码 2.1 信源编码理论,1.1 信源编码理论:1、信源的相对信息率和冗余度:(1)实际信源由于非等概,使H(X)H0=log m(2)实际信源由于有记忆,使H HN H(X)(3)信源每
11、个符号最大可以荷载的信息量是 H0(4)平均每个符号的实际信息荷载量是H(5)只要信息熵没有达到最大值,就存在冗余。,定义相对信息率:=H/H 0 信源冗余度(或剩余度):=1-怎样将这些冗余压缩掉?寻找一种更短的代码序列,在不损失信息的前提下,替代原来的符号序列。应当尽量使所找的编码序列各个码元相互独立且等概,就会使单位符号信息含量更多,代码就比原来更短。,第二部分、无失真信源编码 2.1 信源编码理论,第二部分、无失真信源编码 2.1 信源编码理论,2、变长码编码原理:(1)概率匹配原则:信息量大(不常出现)的符号用长码,信息量小(经常出现)的符号用短码。,(2)平均码长:,(4)极限码长
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 总结 复习
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5230847.html