信息论基础理论与应用第三版(傅祖芸)第三章.ppt
《信息论基础理论与应用第三版(傅祖芸)第三章.ppt》由会员分享,可在线阅读,更多相关《信息论基础理论与应用第三版(傅祖芸)第三章.ppt(111页珍藏版)》请在三一办公上搜索。
1、第三章 离散信道及其信道容量,第一节 信道的数学模型及分类,第二节 平均互信息,第三节 平均互信息的特性,第四节 信道容量及其计算方法,第五节 离散无记忆扩展信道及其信道容量,第六节 信源与信道的匹配,信道的任务:以信号方式传输信息和存储信息。研究内容:信道中能够传送或存储的最大信息量,即信道容量。,3.1 信道的数学模型和分类,数字通信系统的一般模型,一、信道的分类 根据载荷消息的媒体不同,根据信道用户的多少,单用户(两端)信道 一个输入端和一个输出端的单向通信;多用户信道 至少有一端有两个以上的用户,可以是双向通信;(计算机通信、卫星通信、广播通信等),根据输入端和输出端的关联,无反馈信道
2、有反馈信道,信道参数与时间的关系,固定参数信道时变参数信道,根据输入输出信号的特点,离散信道(离散随机序列-离散随机序列)连续信道(连续值随机序列-连续值随机序列)半离散半连续信道(离散随机序列-连续值随机序列)波形信道(模拟信道)(时间、取值连续随机信号-时间、取值连续随机信号),我们只研究:无反馈、固定参数的单用户离散信道。,信道分析的方法 信源输出的是携带者信息的消息,而消息必须首先转换成能在信道中传输或存储的信号,然后经过信道传送到接收者。一般认为,噪声或干扰主要从信道中引入,它使信号通过信道传输后产生错误和失真。因此,信道的输入和输出信号之间一般不是确定的函数关系,而是统计依赖关系。
3、只要知道信道的输入信号、输出信号,以及它们之间的统计依赖关系,那么信道的全部特性就确定了。,二、离散信道的数学模型,条件概率 P(y|x)描述了输入信号和输出信号之间统计依赖关系,反映了信道的统计特性。根据信道的统计特性的不同,离散信道又可分成3种情况:,1.无干扰信道 2.有干扰无记忆信道 3.有干扰有记忆信道,(1)无干扰(无噪声)信道 信道中没有随机性的干扰或者干扰很小,输出符号 y 与输入符号 x 之间有确定的、一 一对应的关系。即:y f(x),(2)有干扰无记忆信道 信道输入和输出之间的条件概率是一般的概率分布。如果任一时刻输出符号只统计依赖于对应时刻的输入符号,则这种信道称为无记
4、忆信道。,(3)有干扰(噪声)有记忆信道 实际信道往往是既有干扰(噪声)又有记忆的这种类型。例如在数字信道中,由于信道滤波频率特性不理想时造成了码字间串扰。在这一类信道中某一瞬间的输出符号不但与对应时刻的输入符号有关,而且还与此以前其他时刻信道的输入符号及输出符号有关,这样的信道称为有记忆信道。,三、单符号离散信道,单符号离散信道特性:输入符号为X,取值于a1,a2,ar输出符号为Y,取值于b1,b2,bs条件概率:P(y|x)P(y=bj|x=ai)P(bj|ai)这一组条件概率称为信道的传递概率或转移概率。信道中有干扰(噪声)存在,可以用传递概率 P(bj|ai)来描述干扰影响的大小。,一
5、般简单的单符号离散信道可用 X,P(y|x),Y 三者加以表述,其数学模型可以用如下概率空间 X,P(y|x),Y也可用图形来描述:,单符号离散信道,信道矩阵(转移矩阵)模型 一般离散单符号信道的传递概率可用矩阵形式表示,即,矩阵P完全描述了信道的特性,可用它作为离散单符号信道的另一种数学模型的形式。矩阵 P中元素有些是信道干扰引起的错误概率,有些是信道正确传输的概率。,例 二元对称信道,BSC,Binary Symmetrical Channel,解:此时,X:0,1;Y:0,1;r=s=2,a1=b1=0;a2=b2=1。传递概率:,p是单个符号传输发生错误的概率。(1-p)表示是无错误传
6、输的概率。转移矩阵:,0 101,符号“2”表示接收到了“0”、“1”以外的特殊符号,0 2 101,例二元删除信道。BEC,Binary Eliminated Channel,解:X:0,1 Y:0,1,2此时,r 2,s 3,传递矩阵为:,(1)联合概率,其中,前向概率,描述信道的噪声特性,后向概率(后验概率),输入符号的先验概率,单符号离散信道的相关概率关系,(2)输出某符号的概率,含义:输出端收到的某符号,必是输入端某一符号输入所致。,(3)后验概率,且,根据贝叶斯定理,可知:,3.2 信道疑义度与平均互信息,研究离散单符号信道的信息传输问题。,一、信道疑义度,先验熵:即信道输入信源X
7、的熵,H(X)是在接收到输出Y以前,关于输入变量X的先验不确定性。,后验熵:接收到bj后,关于输入变量X的不确定性。,后验熵是当信道接收端接收到输出符号bj后,关于输入符号的不确定性的信息测度。,信道疑义度:后验熵在输出符号集Y范围内是随机量。对后验熵在符号集Y中求数学期望,即-信道疑义度:,互信息量 I(x;y):收到消息y 后获得关于x的信息量,即消除的不确定性量。,互信息量表示先验的不确定性减去尚存的不确定性,是收信者获得的信息量。若互信息I(x;y)0,说明在收到信息量y以前对消息x是否出现的不确定性较小;但由于信道噪声的存在,反而使得接收到消息y后,反而对x是否出现的不确定程度增加了
8、。,二、平均互信息,平均互信息I(X;Y):,接收到符号 Y 后,平均每个符号获得的关于 X 的信息量,体现输入与输出两个随机变量间的统计约束程度。,另一角度:平均互信息=通信过程所消除的不确定性:,I(X;Y)是I(x;y)的统计平均,可以证明I(X;Y)0。若I(X;Y)=0,表示在信道输出端接收到符号后不获得任何关于输入符号的信息。,I(X;Y)I(X;Y)=H(X)-H(X|Y)I(X;Y)=H(Y)-H(Y|X)I(X;Y)=H(X)+H(Y)-H(XY)其中:,平均互信息与各类熵的关系,维拉图:可用于各类熵与平均互信息之间关系 H(X|Y)=H(X)-I(X;Y)损失熵/信道疑义度
9、 H(Y|X)=H(Y)-I(X;Y)噪声熵/散布度 H(XY)=H(X)+H(Y)-I(X;Y),H(X),图中,左边的圆代表随机变量X的熵,右边的圆代表随机变量Y的熵,两个圆重叠部分是平均互信息I(X;Y)。每个圆减去I(X;Y)后剩余的部分代表两个疑义度。,两种特殊信道分析,(1)离散无干扰信道(无损信道),信道的输入和输出一一对应,信息无损失传输。,信道传递概率,对应某y,只有一个p(x|y)!=0,则平均互信息=H(X)=H(Y),损失熵(信道疑义度)=0,噪声熵(散布度)=0,I(X;Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)=H(X),P(x|y)!=0,其它取值时为0
10、,无损信道特性 在无损信道中,输入符号和输出符号之间一一对应,所以接收到Y后不存在对于输入X的任何不确定性,即信道疑义度(损失熵)等于零。同时,因为输入和输出符号之间一一对应,所以噪声熵等于零。这时,接收到的平均互信息量就是输入信源所提供的信息量。维拉图:,I(X;Y)=H(X)=H(Y),H(X|Y)=H(Y|X)=0 I(X;Y)=H(X)=H(Y),各集合完全重迭,无损信道:,(2)输入输出独立信道(全损信道)信道输入和输出没有依赖关系,信息无法传输,称为全损信道。,损失熵(信道疑义度)=H(X):,噪声熵(散布度)=H(Y):,因此在全损信道中,接收到Y后不可能消除有关输入端X的任何不
11、确定性,所以获得的信息量等于零。同样,也不能从X中获得任何关于Y的信息量。平均互信息I(X;Y)等于零,表明了信道两端随机变量的统计约束程度等于零。,平均互信息=0:,H(X|Y)=H(X)H(Y|X)=H(Y)I(X;Y)=0,各集合完全独立,全损信道:,H(Y)=H(Y|X),H(X)=H(X|Y),3.3 平均互信息的性质,(1)非负性 I(X;Y)0,当X、Y统计独立时等式成立。,证明:设,,即:I(X;Y)0。当所有p(xy)=p(x)p(y),等号成立。,则必满足詹森不等式,因而有如下关系,(2)极值性 即 I(X;Y)minH(X),H(Y)当 H(X|Y)=0 时,即信道信息无
12、损时,等式成立。,证明:前面已知 I(X;Y)=H(X)-H(X|Y)I(X;Y)=H(Y)-H(Y|X)而 0 H(X|Y),0 H(Y|X)因此:I(X;Y)H(X)且 I(X;Y)H(Y)即:I(X;Y)minH(X),H(Y),表明:从一事件提取另一事件的信息量,至多只有另一事件的信息熵那么多,不会超过该事件所含有的信息量。当H(X|Y)=0时,I(X;Y)=H(X),此时信道中信息无损失,接收到Y可获得关于X的平均信息量。,(3)交互性(对称性)即 I(X;Y)=I(Y;X)1)当 X、Y统计独立时 I(X;Y)=I(Y;X)=0 2)当信道为一一对应的无噪信道时 I(X;Y)=I(
13、Y;X)=H(X)=H(Y),因:,从Y中提取X的信息量,从X中提取Y的信息量,(4)凸状性,可知,平均互信息I(X;Y)只是信源X的概率分布P(x)和信道的传递概率P(y|x)的函数,即:I(X;Y)=f P(x),P(y|x),根据平均互信息表达式:,定理3.1 平均互信息I(X;Y)是输入信源的概率分布P(x)的型凸函数。,(1)对固定信道,选择不同的信源(其概率分布不同)与信道连接,在信道输出端接收到每个符号后获得的信息量是不同的。(2)对于每一个固定信道,一定存在有一种信源处于某一种概率分布P(x),使输出端获得的平均信息量为最大。,例:对于二元对称信道,如果输入信源符号分布 X=w
14、,1-w,则,而:,所以:,当信道固定时,p不变,平均互信息是信源分布的 型凸函数(w的上凸函数),最大值为1-H(P),定理3.2 平均互信息I(X;Y)是信道传递概率P(y|x)的型凸函数。,当信源确定后,选择不同信道来传输同一信源符号,在信道输出端获得关于信源的信息量是不同的。对每一种信源都存在一种最差的信道,此时干扰(噪声)最大,而输出端获得的信息量最小。即:对于一个已知先验概率为P(X)的离散信源,总可以找到某一个转移概率分布的信道,使平均交信息量达到相应的最小值Imin。,例:对于二元对称信道,如果信源分布X=w,1-w,则 可得,当w固定,p=1/2时,平均互信息最小=0,信息传
15、输率 信道中平均每个符号所能传送的信息量。而平均互信息I(X;Y)则反映了接收到一符号Y后平均每个符号获得的关于X的信息量。因此,信息传输率可作如下定义:信息传输率 R R=I(X;Y)=H(X)H(X|Y)(比特/符号),3.4 离散信道的信道容量,信息传输速率Rt:信道在单位时间内平均传输的信息量。即信道中平均每秒传输的信息量:,Rt R/t=I(X;Y)/t=H(X)/t H(X|Y)/t(bit/s),一、信道容量由于平均互信息I(X;Y)是输入随机变量的型凸函数,所以对一固定的信道,总存在一种信源的输入分布概率,使传输每个符号平均获得的信息量最大。信道容量:对任何一个固定信道,存在一
16、个最大的信息传输率,(比特/符号),与之相对应的输入分布概率P(X)则称为最佳输入分布。,(Bit/s),Ct仍称为信道容量:,若平均传输一个符号需要 t 秒钟,则信道在单位时间内平均传输的最大信息量为Ct:,性质 信道容量与输入信源的概率分布无关,只是信道传输概率的函数,只与信道的统计特性有关。信道容量是完全描述信道特性的参量,是信道的最大信息传输率。,即:,例 二元对称信道容量的计算,因此,二元对称信道的信道容量为:,前述二元对称信道,I(X;Y),(比特符号),1.无噪无损信道(无噪一一对应信道),二、简单离散信道的信道容量,例如:,也即,其信道矩阵是单位矩阵:,满足:损失熵H(X|Y)
17、=0、噪声熵H(Y|X)=0,故 I(X;Y)=H(X)=H(Y),则信道容量:,维拉图:,最佳输入分布:等概率分布,2.有噪无损信道,信道特点:输入一个符号X对应若干个输出符号Y,且每一个X值所对应的Y值不重合。输入符号通过传输变换成了若干个输出符号,不满足一一对应关系,但这些输出符号仍可以分成互不相交的一些子集合。,例,一旦接收到符号Y后,可消除对X符号的不确定性。分析一下:损失熵H(X|Y),噪声熵H(Y|X),信道矩阵特点:除了每行元素之和为1外,每一列中只有一个非零项。表明一个接收符号只对应一个发送符号,而一个发送符号对应多个接收符号,是一对多关系。,所以:I(X;Y)=H(X)H(
18、X|Y)=H(X)且 I(X;Y)=H(Y)H(Y/X)H(Y)则 I(X;Y)=H(X)H(Y),损失熵(信道疑义度)=0:,噪声熵(散布度)0,则信道容量为:,最佳输入分布:等概率分布。,维拉图,3.无噪有损信道(确定信道),信道特点:输入X与输出Y之间为多对一关系,接收到符号Y后不能完全消除对X的不确定性。前向概率 P(y|x)=0 or 1 后向概率 P(x|y)0 or 1 可计算损失熵H(X|Y)、噪声熵H(Y|X)。,噪声熵(散布度)=0,损失熵(信道疑义度)0,满足:I(X;Y)=H(Y)H(Y/X)=H(Y)I(X;Y)=H(X)H(X/Y)H(X)因此:I(X;Y)=H(Y
19、)H(X),则信道容量为:,输出符号等概率分布时H(Y)最大,且一定可以找到一种输入分布,使得输出符号Y达到等概率分布。,维拉图,三类信道特点:无噪无损信道:损失熵、损失熵皆为0;无损信道:损失熵H(X|Y)为0,噪声熵不为0;无噪信道:噪声熵H(Y|X)为0,损失熵不为0;这三类信道的信道容量的计算,从求平均互信息的极限问题退化为求信息熵的极值问题。,信道特点:信道矩阵P中每一行都是由同一集合p1,p2,ps 中的诸元素不同排列组成;信道矩阵P每一列也都是由同一集合 q1,q2,qr 中的诸元素不同排列组成。一般sr。当r=s,两个集合相同;若rs,则qi是 pi的子集。,三、对称离散信道的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 基础理论 应用 第三 傅祖芸
链接地址:https://www.31ppt.com/p-5230833.html