信息论与编码总复习.ppt
《信息论与编码总复习.ppt》由会员分享,可在线阅读,更多相关《信息论与编码总复习.ppt(78页珍藏版)》请在三一办公上搜索。
1、第1章绪论,重点掌握信息的特征信息、消息、信号的联系和区别通信系统的物理模型 一般了解信息论理论的形成和发展过程信息论的研究内容,信息的特征,信息的基本概念在于它的不确定性,任何已确定的事物都不含信息。接收者在收到信息之前,对它的内容是不知道的,所以信息是新知识、新内容信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识信息可以产生,也可以消失,同时信息可以被携带、贮存及处理信息是可以量度的,信息量有多少的差别,消息、信号和信息,信号最具体,它是一物理量,可测量、可显示、可描述,同时它又是载荷信息的实体消息是具体的、非物理的,可描述为语言文字、符号、数据、图片,能够被感觉到,同时它是信
2、息的载荷体,是信息论中主要描述形式信息是抽象的、非物理的哲学层表达,信息的物理层表达,信息的数学层表达,通信系统模型简介,加密密钥,解密密钥,第2章信源及信源熵,重点掌握信源的分类和数学描述自信息量、互信息离散信源熵离散序列信源的熵熵的性质一般了解连续信源熵冗余度,信源分类,信源的数学描述,单符号无记忆信源用一维离散型随机变量X来描述这些信息的输出。数学模型符号序列无记忆信源很多实际信源输出的消息往往是由一系列符号组成,这种用每次发出1组含2个以上符号的符号序列来代表一个消息的信源叫做发出符号序列的信源。设信源输出的随机序列为X,序列中的变量,信源的数学描述,有记忆信源的联合概率表示比较复杂,
3、需要引入条件概率来反映信源发出符号序列内各个符号之间的记忆特征。,信源的数学描述,一阶马尔可夫信源,m阶马尔可夫信源,自信息量,随机事件的自信息量定义为其概率对数的负值,即,I(xi)含义:当事件xi发生以前,表示事件xi发生的不确定性当事件xi发生以后,表示事件xi所含有的信息量,自信息量的特性,I(xi)是非负值当p(xi)=1时,I(xi)=0当p(xi)=0时,I(xi)=I(xi)是先验概率p(xi)的单调递减函数,即 当p(x1)p(x2)时,I(x1)I(x2)两个独立事件的联合信息量等于它们分别的信息量之和。即:统计独立信源的信息量等于它们分别的信息量之和。,联合自信息量,两个
4、消息xi,yj同时出现的联合自信息量 当xi,yj相互独立时,有p(xi yj)=p(xi)p(yj),那么就有 I(xi yj)=I(xi)+I(yj)。xi yj所包含的不确定度在数值上也等于它们的自信息量。,条件自信息量,在事件yj出现的条件下,随机事件xi发生的条件概率为p(xi/yj),则它的条件自信息量定义为条件概率对数的负值:在给定yj条件下,随机事件xi所包含的不确定度在数值上与条件自信息量相同,但两者含义不同。联合自信息量、条件自信息量和自信息量,信源熵,离散信源熵为信源中各个符号不确定度的数学期望信源熵的物理含义表示信源输出前信源的平均不确定性表示信源输出后每个符号所携带的
5、平均信息量,条件熵,在给定yj条件下,xi的条件自信息量为I(xi/yj),X集合的条件熵在给定Y(即各个yj)条件下,X集合的条件熵在给定X(即各个xi)条件下,Y集合的条件熵条件熵是在联合符号集合XY上的条件自信息量的联合概率加权统计平均值。条件熵H(X/Y)表示已知Y后,X的不确定度。,联合熵,联合熵是联合符号集合 XY上的每个元素对xiyj的自信息量的概率加权统计平均值联合熵H(XY)表示X和Y同时发生的不确定度。联合熵、信源熵和条件熵之间的关系,互信息,定义:xi的后验概率与先验概率比值的对数事件xi是否发生具有不确定性,用I(xi)度量。接收到符号yj后,事件xi是否发生仍保留有一
6、定的不确定性,用I(xi/yj)度量。接收到某消息yj后获得的关于事件xi的信息量,用I(xi;yj)表示。,平均互信息,互信息量 I(xi;yj)在X集合上的统计平均值为 I(X;yj)在Y集合上的概率加权统计平均值,平均互信息(量),平均互信息量的物理意义,H(X/Y):信道疑义度,损失熵信源符号通过有噪信道传输后引起的信息量损失。信源X的熵等于接收到的信息量加损失掉的信息量。H(Y/X):噪声熵,散布度它反映了信道中噪声源的不确定性。输出端信源Y的熵H(Y)等于接收到关于X的信息量I(X;Y)加上H(Y/X),这完全是由信道中噪声引起的。,熵的性质,非负性H(X)H(x1,x2,xn)0
7、等号在p(xi)=1时成立对称性H(x1,x2,xn)H(x2,x1,xn)熵函数只与随机变量的总体结构有关确定性H(0,1)H(1,0,0,0)0只要信源符号集中有一个符号的出现概率为1,信源熵就等于零,熵的性质,香农辅助定理对于P(p1,p2,pn)和Q(q1,q2,qn)对任意概率分布pi,它对其他概率分布qi的自信息量取数学期望时,必不小于pi本身的熵最大熵定理离散无记忆信源输出M个不同的信息符号,当且仅当各个符号出现概率时(即等概率分布),熵最大,互信息量与熵,离散无记忆信源的序列熵,设信源输出的随机序列为X=(X1X2XlXL)序列中的变量Xlx1,x2,xn信源的序列熵可以表示为
8、信源序列中,平均每个符号的熵为离散无记忆信源平均每个符号的符号熵HL(X)等于单个符号信源的符号熵H(X),无记忆,无记忆、平稳,离散有记忆信源的序列熵,若信源输出一个L长序列,则信源的序列熵为平均每个符号的熵为信源无记忆时满足平稳时,离散平稳信源,结论1:H(XL/XL-1)是L的单调非增函数结论2:HL(X)H(XL/XL-1)结论3:HL(X)是L的单调非增函数结论4:当L时,H(X)称为极限熵,马尔可夫信源,若一个信源满足下面两个条件,则称为马尔可夫信源:某一时刻信源输出符号的概率只与当前所处的状态有关,而与以前的状态无关;信源的下一个状态由当前状态和下一刻的输出符号唯一确定。符号条件
9、概率信源在某一时刻出现符号xj的概率与信源此时所处的状态si有关,用条件概率表示为p(xj/si)。状态转移概率当信源符号xj出现后,信源所处的状态将发生变化,并转入一个新的状态。这种状态的转移可用状态转移概率p(sj/si)表示。,状态转移图(香农线图),齐次马尔可夫链可以用其状态转移图(香农线图)表示每个圆圈代表一种状态 状态之间的有向线代表从某一状态向另一状态的转移有向线一侧的符号和数字分别代表发出的符号和条件概率,p(x1/s2)=0.8,p(s2/s2)=0.8,稳定的马尔可夫信源,极限概率Wj一个不可约的、非周期的、状态有限的马尔可夫链,其k步转移概率pij(k)在k时趋于一个和初
10、始状态无关的概率,即不论起始状态如何,这种马氏链都可以最后达到稳定,即所有变量Xk的概率分布均不变。可以用P这一矩阵充分描述稳定的马氏链。平稳分布Wj可用下列方程组求得,马尔可夫信源的熵,M阶马尔可夫信源的极限熵齐次、遍历的马尔可夫信源的熵,处于状态si时符号的平均不确定性,第3章信道与信道容量,重点掌握有干扰无记忆信道的数学描述信道容量的定义对称和准对称DMC信道的信道容量计算香农公式一般了解信道的各种分类无干扰离散信道的信道容量信源和信道的匹配,信道的分类,按信道的用户数量来划分单用户信道、多用户信道按输入/输出之间的关系来划分无反馈信道、反馈信道按信道参数与时间的关系来划分固定参数信道、
11、时变参数信道按信道中的噪声种类来划分随机差错信道、突发差错信道按输入/输出信号在幅度和时间上的取值划分离散信道、连续信道、半离散半连续信道、波形信道,信道模型,根据干扰和记忆性分类无干扰(无噪声)信道有干扰无记忆信道有干扰有记忆信道信道模型信道的输入Xi=a1,a2,an信道的输出Yj=b1,b2,bm信道转移概率矩阵p(Y/X),信道模型,二进制离散信道:BSC信道输入符号X取值0,1输出符号Y取值0,1离散无记忆信道:DMC信道输入符号集X=a1,a2,an输出符号集Y=b1,b2,bm,信道模型,离散输入、连续输出信道输入符号集:X=a1,a2,an输出未经量化,即Y=-,输出特性由离散
12、输入X、连续输出Y以及一组条件概率密度函数 p(y/X=ai)来决定。波形信道输入是模拟波形,输出也是模拟波形连续无记忆信道和连续有记忆信道y(t)x(t)n(t)n(t)代表加性噪声,信道容量的定义,信道传输率R I(X;Y)bit/符号信道中平均每个符号能传送的信息量信息传输速率Rt I(X;Y)/t bit/s信道中单位时间传送的信息量信道容量给定转移概率矩阵P后,平均互信息I(X;Y)是概率矢量Px的上凸函数。I(Px)的极大值就是信道容量。,离散单符号信道,离散单个符号信道,无干扰离散信道,有扰离散信道,对称DMC信道,准对称DMC信道,一般DMC信道,无噪无损信道,无噪有损信道,有
13、噪无损信道,无干扰离散信道,无噪无损信道C=max I(X;Y)=log n无噪有损信道C=max I(X;Y)=max H(Y)有噪无损信道C=max I(X;Y)=max H(X),DMC信道的容量,对称DMC信道的性质对称信道的条件熵H(Y/X)与信道输入符号的概率分布无关。如果信道输入符号等概率分布,则信道输出符号也等概率分布;反之,若信道输出符号等概率分布时,信道输入符号也是等概率分布。当信道输入符号等概率分布时,对称DMC信道达到其信道容量。,DMC信道的容量,准对称DMC信道的容量如果转移概率矩阵P的输入对称而输出不对称,则称该信道是准对称DMC信道。当信道输入符号等概率分布时,
14、准对称DMC信道达到其信道容量C。矩阵分解法:将转移概率矩阵划分成若干个互不相交的对称子矩阵。,DMC信道的容量,一般DMC信道的容量以输入符号概率矢量Px为自变量的函数I(Px)的极大值,即信道容量。为了使I(X;Y)最大化,即求取信道容量的值,输入概率集p(xi)必须满足的充分必要条件是:I(xi;Y)C,对于所有满足p(xi)0条件的iI(xi;Y)C,对于所有满足p(xi)0条件的i,每一个概率不为0的输入符号对输出提供相同的互信息,离散序列信道及其容量,X=(X1,X2,XL),Xl=a1,a2,an,Y=(Y1,Y2,YL),Yl=b1,b2,bm,独立、无记忆、平稳离散序列信道的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 复习
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5230734.html