信息论与编码-第24讲-总复习.ppt
2023/11/11,1,信息与消息和信号的区别消息:是指包含有信息的语言、文字和图像等,可表达客观物质运动和主观思维活动的状态。信号:把消息变换成适合信道传输的物理量,这种物理量称为信号(如电信号、光信号、声音信号等)。,第一章 概 论,2023/11/11,2,信息“本体论”层次定义:信息是该事物运动的状态和状态改变的方式。认识论层次的信息是同时考虑语法信息、语义信息和语用信息的全信息。全信息:同时考虑外在形式/语法信息、内在含义/语义信息、效用价值/语用信息,称为全信息。语法信息:事物运动状态和状态改变的方式;语义信息:事物运动状态和方式的具体含义;语用信息:事物运动状态和方式及其含义对观察者的效用。研究信息论的目的:它的主要目的是提高信息系统的可靠性、有效性和安全性以便达到系统最优化。,第一章 概 论,2023/11/11,3,单符号离散信源自信息量用概率测度定义信息量设离散信源 X,其概率空间为如果知道事件 xi 已发生,则该事件所含有的自信息定义为当事件 xi 发生以前:表示事件 xi 发生的不确定性。当事件 xi 发生以后:表示事件 xi 所含有(或所提供)的信息量,第二章 信源熵,2023/11/11,4,联合自信息量当 X 和 Y 相互独立时,p(xiyj)=p(xi)p(yj),第二章 信源熵,2023/11/11,5,条件自信息量:已知 yj 的条件下 xi 仍然存在的不确定度。自信息量、条件自信息量和联合自信息量之间的关系,第二章 信源熵,2023/11/11,6,互信息量:yj 对 xi 的互信息量定义为的后验概率与先验概率比值的对数。,第二章 信源熵,2023/11/11,7,观察者站在输出端:两个不确定度之差是不确定度被消除的部分,即等于自信息量减去条件自信息量。观察者站在输入端:观察者得知输入端发出 xi 前、后对输出端出现 yj 的不确定度的差。观察者站在通信系统总体立场上:通信后的互信息量,等于前后不确定度的差。,第二章 信源熵,2023/11/11,8,平均信息量信源熵:自信息的数学期望。也称为信源的信息熵/信源熵/香农熵/无条件熵/熵函数/熵。信息熵的意义:信源的信息熵 H 是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。信源熵的三种物理含义信源熵 H(X)是表示信源输出后每个消息/符号所提供的平均信息量;信源熵 H(X)是表示信源输出前,信源的平均不确定性;用信源熵 H(X)来表征变量 X 的随机性。,第二章 信源熵,2023/11/11,9,条件熵:是在联合符号集合 XY 上的条件自信息的数学期望。,第二章 信源熵,2023/11/11,10,信道疑义度H(X/Y):表示信宿在收到 Y 后,信源 X 仍然存在的不确定度。是通过有噪信道传输后引起的信息量的损失,故也可称为损失熵。噪声熵H(Y/X):表示在已知 X 的条件下,对于符号集 Y 尚存在的不确定性(疑义),这完全是由于信道中噪声引起的。,第二章 信源熵,2023/11/11,11,联合熵 H(XY):表示输入随机变量 X,经信道传输到达信宿,输出随机变量 Y。即收、发双方通信后,整个系统仍然存在的不确定度。,第二章 信源熵,2023/11/11,12,最大离散熵定理(极值性):离散无记忆信源输出 n 个不同的信息符号,当且仅当各个符号出现概率相等时(即p(xi)=1/n),熵最大。Hp(x1),p(x2),p(xn)H(1/n,1/n,1/n)=log2n 出现任何符号的可能性相等时,不确定性最大。,第二章 信源熵,2023/11/11,13,平均互信息量定义:互信息量 I(xi;yj)在联合概率空间 P(XY)中的统计平均值。从一个事件获得另一个事件的平均互信息需要消除不确定度,一旦消除了不确定度,就获得了信息。,第二章 信源熵,2023/11/11,14,站在输出端:I(X;Y)收到 Y 前、后关于 X 的不确定度减少的量。从 Y 获得的关于 X 的平均信息量。站在输入端:I(Y;X)发出 X 前、后关于 Y 的先验不确定度减少的量。站在总体:I(X;Y)通信前、后整个系统不确定度减少量。,第二章 信源熵,2023/11/11,15,BSC信道的平均互信息量 设二进制对称信道的输入概率空间为 转移概率如图所示。,第二章 信源熵,2023/11/11,16,平均互信息量当 q 不变(固定信道特性)时,可得 I(X;Y)随输入概率分布 p 变化的曲线,如图所示;二进制对称信道特性固定后,输入呈等概率分布时,平均而言在接收端可获得最大信息量。,第二章 信源熵,2023/11/11,17,当固定信源特性 p 时,I(X;Y)就是信道特性 q 的函数,如图所示;当二进制对称信道特性 q=/q=1/2时,信道输出端获得信息量最小,即等于0。说明信源的全部信息信息都损失在信道中了。这是一种最差的信道。,第二章 信源熵,2023/11/11,18,离散无记忆信源 X 的 N 次扩展信源的熵等于离散信源X 的熵的 N 倍,即H(X)=H(XN)=NH(X)离散平稳信源:各维联合概率均与时间起点无关的完全平稳信源称为离散平稳信源。二维离散平稳信源的熵为,第二章 信源熵,2023/11/11,19,平均符号熵:信源平均每发一个符号提供的信息量为离散平稳有记忆信源的极限熵:当 N 时,平均符号熵取极限值称之为极限熵或极限信息量。用 H表示,即极限熵的存在性:当离散有记忆信源是平稳信源时,极限熵等于关联长度 N时,条件熵H(XN/X1X2XN-1)的极限值,即极限熵的含义:代表了一般离散平稳有记忆信源平均每发一个符号提供的信息量。,第二章 信源熵,2023/11/11,20,m阶马尔可夫信源m阶马尔可夫信源的极限熵有限齐次马尔可夫链各态历经定理有关问题的说明H并非在任何情况下都存在。对n元m阶马尔可夫信源来说,只有状态极限概率p(ej),j=1,2,nm都存在时,方能计算出H。从理论上可以证明,如果m阶马尔可夫信源稳定后具有各态历经性,则状态极限概率p(ej)可根据下式求出。,第二章 信源熵,2023/11/11,21,信源熵的相对率:=H/H0信源冗余度:=1=(H0H)/H0信源的冗余度表示信源可压缩的程度。,第二章 信源熵,2023/11/11,22,随机过程 x(t)中某一样本函数 x(t)的时间平均值定义:随机过程 x(t)在某时刻 ti 所取的随机变量 的统计平均值/集平均定义:遍历的随机过程:时间平均与统计平均相等,即,第二章 信源熵,2023/11/11,23,连续信源的熵为上式定义的熵在形式上和离散信源相似,也满足离散熵的主要特性,如可加性,但在概念上与离散熵有差异因为它失去了离散熵的部分含义和性质。,第二章 信源熵,2023/11/11,24,连续信源熵有关问题说明连续信源熵并不是实际信源输出的绝对熵;连续信源的绝对熵还有一项正的无限大量,虽然 log2(ba)小于0,但两项相加还是正值,且一般还是一个无限大量。因为连续信源的可能取值数有无限多,若假定等概率,确知其输出值后所得信息量也将为无限大;Hc(X)已不能代表信源的平均不确定度,也不能代表连续信源输出的信息量。连续信源熵的意义这种定义可以与离散信源在形式上统一起来;在实际问题中常常讨论的是熵之间的差值问题,如信息变差、平均互信息等。在讨论熵差时,两个无限大量互相抵消。所以熵差具有信息的特征;连续信源的熵 Hc(X)具有相对性,因此 Hc(X)也称为相对熵。,第二章 信源熵,25,例2.4 已知信源空间 信道特性如图2.4所示,求在该信道上传输的疑义度H(X|Y),噪声熵H(Y|X)和共熵H(XY)。,图2.4 例2.4的信道特性,解(1)根据P(xiyj)=P(xi)P(yj|xi),求各联合概率,得P(x1y1)=P(x1)P(y1|x1)=0.50.98=0.49P(x1y2)=P(x1)P(y2|x1)=0.50.02=0.01P(x2y1)=P(x2)P(y1|x2)=0.50.20=0.10P(x2y2)=P(x2)P(y2|x2)=0.50.80=0.40(2)求Y集合中各符号的概率,得P(y1)=P(x1)P(y1|x1)+P(x2)P(y1|x2)=0.50.980.50.2=0.59P(y2)=1 0.59=0.41,(3)求各种熵,有,H(X|Y)=H(XY)H(Y)=1.43 0.98=0.45 比特 H(Y|X)=H(XY)H(X)=1.43 1=0.43 比特,2023/11/11,29,信道容量 C:在信道中最大的信息传输速率,单位是比特/信道符号。单位时间的信道容量 Ct:若信道平均传输一个符号需要 t 秒钟,则单位时间的信道容量为 Ct 实际是信道的最大信息传输速率。,第三章 信道容量,2023/11/11,30,求信道容量的方法当信道特性 p(yj/xi)固定后,I(X;Y)随信源概率分布 p(xi)的变化而变化。调整 p(xi),在接收端就能获得不同的信息量。由平均互信息的性质已知,I(X;Y)是 p(xi)的上凸函数,因此总能找到一种概率分布 p(xi)(即某一种信源),使信道所能传送的信息率为最大。C 和 Ct 都是求平均互信息 I(X;Y)的条件极大值问题,当输入信源概率分布 p(xi)调整好以后,C 和 Ct 已与 p(xi)无关,而仅仅是信道转移概率的函数,只与信道统计特性有关;信道容量是完全描述信道特性的参量;信道容量是信道能够传送的最大信息量。,第三章 信道容量,2023/11/11,31,当 n=2 时的强对称离散信道就是二进制均匀信道。二进制均匀信道 的信道容量为:二进制均匀信道容量 曲线如图所示。,第三章 信道容量,2023/11/11,32,香农公式说明当信道容量一定时,增大信道带宽,可以降低对信噪功率比的要求;反之,当信道频带较窄时,可以通过提高信噪功率比来补偿。当信道频带无限时,其信道容量与信号功率成正比。,第三章 信道容量,2023/11/11,33,信道编码定理:若有一离散无记忆平稳信道,其容量为 C,输入序列长度为 L,只要待传送的信息率 RC时,任何编码的 Pe 必大于零,当 L,Pe1。信道编码定理说明:同无失真信源编码定理类似,信道编码定理也是一个理想编码的存在性定理。它指出信道容量是一个临界值,只要信息传输率不超过这个临界值,信道就可几乎无失真地把信息传送过去,否则就会产生失真。,第三章 信道容量,2023/11/11,34,失真度设离散无记忆信源为,第四章 信息率失真函数,2023/11/11,35,对每一对(xi,yj),指定一个非负函数d(xi,yj)0 i=1,2,n j=1,2,m 称 d(xi,yj)为单个符号的失真度/失真函数。表示信源发出一个符号 xi,在接收端再现 yj 所引起的误差或失真。,第四章 信息率失真函数,2023/11/11,36,平均失真度定义d(xi,yj)只能表示两个特定的具体符号 xi 和 yj 之间的失真。平均失真度:平均失真度为失真度的数学期望,,第四章 信息率失真函数,2023/11/11,37,平均失真度意义 是在平均意义上,从总体上对整个系统失真情况的描述。它是信源统计特性 p(xi)、信道统计特性 p(yj/xi)和失真度 d(xi,yj)的函数。当 p(xi),p(yj/xi)和 d(xi,yj)给定后,平均失真度就不是一个随机变量了,而是一个确定的量。如果信源和失真度一定,就只是信道统计特性的函数。信道传递概率不同,平均失真度随之改变。,第四章 信息率失真函数,2023/11/11,38,允许平均失真度:率失真函数中的自变量 D,也就是人们规定的平均失真度 的上限值。率失真函数的定义域问题就是在信源和失真函数已知的情况下,讨论允许平均失真度 D 的最小和最大值问题。D 的选取必须根据固定信源 X 的统计特性 P(X)和选定的失真函数 d(xi,yj),在平均失真度 的可能取值范围内。,第四章 信息率失真函数,2023/11/11,39,常用的失真函数第一种当a=1时称为汉明失真矩阵。第二种/平方误差失真矩阵:d(xi,yj)=(yjxi)2,第四章 信息率失真函数,2023/11/11,40,单符号信源和单符号信道的信息率失真函数在信源和失真度给定以后,PD 是满足保真度准则 的试验信道集合,平均互信息 I(X;Y)是信道传递概率 p(yj/xi)的下凸函数,所以在 PD 中一定可以找到某个试验信道,使 I(X;Y)达到最小,即 这个最小值 R(D)称为信息率失真函数,简称率失真函数。在信源给定以后,总希望在允许一定失真的情况下,传送信源所必须的信息率越小越好。从接收端来看,就是在满足保真度准则 的条件下,寻找再现信源消息必须的最低平均信息量,即平均互信息的最小值。,第四章 信息率失真函数,2023/11/11,41,求信息率失真函数的方法 信息率失真函数 R(D)是假定信源给定的情况下,在用户可以容忍的失真度内再现信源消息所必须获得的最小平均信息量。它反映的是信源可压缩程度。率失真函数一旦找到,就与求极值过程中选择的试验信道不再有关,而只是信源特性的参量。不同的信源,其 R(D)是不同的。,第四章 信息率失真函数,2023/11/11,42,对偶问题:信道容量和信息率失真函数的问题,都是求平均互信息极值问题。分三个方面说明:求极值问题平均互信息I(X;Y)是信源概率分布p(xi)(i=1,2,n)的上凸函数,信道容量就是在固定信道情况下,求平均互信息极大值的问题,即I(X;Y)又是信道转移概率分布 p(yj/xi)(i=1,2,n;j=1,2,m)的下凸函数,信息率失真函数就是在试验信道(满足保真度准则的信道)中寻找平均互信息极小值的问题,即,第四章 信息率失真函数,2023/11/11,43,特 性信道容量 C一旦求出后,就只与信道转移概率 p(yj/xi)有关,反映信道特性,与信源特性无关;信息率失真函数 R(D)一旦求出后,就只与信源概率分布 p(xi)有关,反映信源特性,与信道特性无关。解决的问题信道容量是为了解决通信的可靠性问题,是信息传输的理论基础,通过信道编码增加信息的冗余度来实现;信息率失真函数是为了解决通信的有效性问题,是信源压缩的理论基础,通过信源编码减少信息的冗余度来实现。,第四章 信息率失真函数,2023/11/11,44,限失真信源编码定理:设一离散平稳无记忆信源的输出随机变量序列为 X=(X1,X2,XL),若该信源的信息率失真函数是 R(D),并选定有限的失真函数。对于任意允许平均失真度 D0,和任意小的0,当信息率 RR(D),只要信源序列长度 L 足够长,一定存在一种编码方式 C,使译码后的平均失真度;反之,若 RR(D),则无论用什么编码方式,必有,即译码平均失真必大于允许失真。信息率失真函数也是一个界限。只要信息率大于这个界限,译码失真就可限制在给定的范围内。即通信的过程中虽然有失真,但仍能满足要求,否则就不能满足要求。,第四章 信息率失真函数,2023/11/11,45,研究信道编码和率失真函数的意义研究信道容量的意义:在实际应用中,研究信道容量是为了解决在已知信道中传送最大信息率问题。目的是充分利用已给信道,使传输的信息量最大而发生错误的概率任意小,以提高通信的可靠性。这就是信道编码问题。研究信息率失真函数的意义:研究信息率失真函数是为了解决在已知信源和允许失真度D 的条件下,使信源必须传送给信宿的信息率最小。即用尽可能少的码符号尽快地传送尽可能多的信源消息,以提高通信的有效性。这是信源编码问题。,第四章 信息率失真函数,2023/11/11,46,香农编码费诺编码哈夫曼编码编码效率的计算,第五章 信源编码,2023/11/11,47,1 香农编码方法,编码方法如下:(1)将信源消息符号按其出现的概率大小依次排列(2)确定满足下列不等式的整数码长Ki:,2023/11/11,48,(3)为了编成唯一可译码,计算第i个消息 的累加概率(4)将累加概率Pi 变换成二进制数。(5)取Pi二进数的小数点后Ki位即为该消 息符号的二进制码字。,2023/11/11,49,例1,设信源共有7个消息符号,按照概率大小排列后的概率分布和累加概率如表1所示。根据自信息量定义计算每个信源符号的信息量I(xi)=-logp(xi),然后根据信息量确定码长Ki,如表4-4-1中第4、5两列以i=4为例,,2023/11/11,50,累加概率P4=0.57,变换成二进制为0.1001,由于3,所以第4个消息的编码码字为100。其他消息的码字可用同样方法求得,如表1所示。,2023/11/11,51,xi,P(xi),Pi,-logp(xi),Ki,码字,x1,x2,x3,x4,x5,x6,x7,0.20,0.19,0.18,0.17,0.15,0.10,0.01,0,0.2,0.39,0.57,0.74,0.89,0.99,2.34,2.41,2.48,2.56,2.74,3.34,6.66,3,3,3,3,3,4,7,000,001,011,100,101,1110,1111110,2023/11/11,52,说明:(1)该信源共有5个三位的码字,各码字之间至少有一位数字不相同,故是唯一可译码。同时可以看出,这7个码字都不是延长码,它们都属于即时码。这里L=1,m=2.(2)信源符号的平均码长 码元/符号,2023/11/11,53,(3)平均信息传输率,2 费诺编码方法,费诺从概率匹配角度出发,构造了一种编码算法,称为费诺码。其基本思想是:按照累加概率尽可能相等的原则对信源符号进行分组,对于二元码,每次分为两组,对于d元码,则每次分为d个组,并且给不同的组分配一个不同的码元符号;对其中的每组按照累计概率尽可能相等的原则再次进行分组,并指定码元符号,直到不能再分类为止;然后将每个符号指定的码元符号排列起来即可得到相应的码字。如果采用二元码,编码步骤:,2023/11/11,55,编码步骤:(1)将信源消息符号按其出现的概率大小依次排列:p(x1)p(x2)p(xn)。(2)将依次排列的信源符号按概率值分为两大组,使两个组的概率之和近于相同,并对各组赋予一个二进制码元“0”和“1”。,2023/11/11,56,(3)将每一大组的信源符号进一步再分成两组,使划分后的两个组的概率之和近于相同,并又赋予两个组一个二进制符号“0和“1”。(4)如此重复,直至每个组只剩下一个信源符号为止。(5)信源符号所对应的码字即为费诺码。,2023/11/11,57,对例1的信源进行费诺编码,具体编码过程参见下表。,11/11/2023,58,费诺码的平均码长 信息传输速率,3 哈夫曼编码方法,哈夫曼提出了一种编码效率较高的构造最佳码的方法,其基本思想是:概率大的符号分配短码字,而概率小的信源符号分配长码字,为此首先给小概率符号分配码元,分配码元后的符号进行概率合并,然后按照大小顺序重排概率,并对概率小的符号或者符号集合分配码元,直到概率合并结束为止,最后逆向搜索参与概率合并时分配的码元符号,形成对应的码字。对于二元码,其编码步骤如下:,2023/11/11,60,哈夫曼编码 步骤:(1)将n个信源消息符号按其出现的概率大小依 次排列,p(x1)p(x2)p(xn)(2)取两个概率最小的字母分别配以0和1两码元,并将这两个概率相加作为一个新字母的概率,与未分配的二进符号的字母重新排队。,2023/11/11,61,(3)对重排后的两个概率最小符号重复步骤(2)的过程。(4)不断继续上述过程,直到最后两个符号配以0和1为止。(5)从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即相应的码字。,2023/11/11,63,差错控制的基本方式前向纠错(FEC):发送端的信道编码器将信息码组编成具有一定纠错能力的码。接收端信道译码器对接收码字进行译码,若传输中产生的差错数目在码的纠错能力之内时,译码器对差错进行定位并加以纠正。自动请求重发(ARQ):用于检测的纠错码在译码器输出端只给出当前码字传输是否可能出错的指示,当有错时按某种协议通过一个反向信道请求发送端重传已发送的码字全部或部分。,第六章 信道编码,2023/11/11,64,混合纠错(HEC):是 FEC 与 ARQ 方式的结合。发端发送同时具有自动纠错和检测能力的码组,收端收到码组后,检查差错情况,如果差错在码的纠错能力以内,则自动进行纠正。如果信道干扰很严重,错误很多,超过了码的纠错能力,但能检测出来,则经反馈信道请求发端重发这组数据。信息反馈(IRQ):也称回程校验方式。收端把收到的数据,原封不动地通过反馈信道送回到发端,发端比较发的数据与反馈来的数据,从而发现错误,并且把错误的消息再次传送,直到发端没有发现错误为止。,第六章 信道编码,2023/11/11,65,伴随式和错误检测 用监督矩阵编码,也用监督矩阵译码:接收到一个接收字 R 后,校验 HRT=0T 是否成立:若关系成立,则认为 R 是一个码字;否则判为码字在传输中发生了错误;HRT的值是否为0是校验码字出错与否的依据。伴随式/监督子/校验子:S=RHT或ST=HRT。如何纠错?设发送码矢 C=(Cn1,Cn2,C0)信道错误图样为 E=(En1,En2,E0),其中Ei=0,表示第i位无错;Ei=1,表示第i位有错。i=n1,n2,0。,第六章 信道编码,2023/11/11,66,接收字 R 为 R=(Rn1,Rn2,R0)=C+E=(Cn1+En1,Cn2+En2,C0+E0)求接收字的伴随式(接收字用监督矩阵进行检验)ST=HRT=H(C+E)T=HCT+HET由于HCT=0T,所以 ST=HET(6.2.25)设H=(h1,h2,hn),其中hi表示H的列。代入式(6.2.25)得到,第六章 信道编码,2023/11/11,67,总结伴随式仅与错误图样有关,而与发送的具体码字无关,即伴随式仅由错误图样决定;伴随式是错误的判别式:若S=0,则判为没有出错,接收字是一个码字;若S0,则判为有错。不同的错误图样具有不同的伴随式,它们是一一对应的。对二元码,伴随式是 H 阵中与错误码元对应列之和。,第六章 信道编码,2023/11/11,68,最小距离与检、纠错能力:(n,k)线性码能纠 t 个错误,并能发现 l 个错误(l t)的充要条件是码的最小距离为 dmin=t+l+1 或 t+l=dmin1(6.2.23)证明:因为dmin2t+1,根据最小距离与纠错能力定理,该码可纠 t 个错误。因为dminl+1,根据最小距离与检错能力定理,该码有检 l 个错误的能力。纠错和检错不会发生混淆:设发送码字为 V,接收字为 R,实际错误数为 l,且 tt+1t(6.2.24)因而不会把 R 误纠为 U。,第六章 信道编码,2023/11/11,69,几何意义:,第六章 信道编码,2023/11/11,70,循环码的码矢的 i 次循环移位与码多项式的关系上式表明:码矢循环一次的码多项式 C(1)(x)是原码多项式 C(x)乘以 x 除以(xn+1)的余式。写作因此,C(x)的 i 次循环移位 C(i)(x)是 C(x)乘以 xi 除以(xn+1)的余式,即结论:循环码的码矢的 i 次循环移位等效于将码多项式乘 xi 后再模(xn+1)。,第六章 信道编码,2023/11/11,71,接收字循环移位的伴随式与伴随式循环移位的关系 定理:设 S(x)为接收矢量 R(x)的伴随式,则 R(x)的循环移位 xR(x)(mod(xn+1)的伴随式 S(1)(x)等于伴随式 S(x)的循环移位 xS(x)(mod g(x),即S(1)(x)xS(x)(mod g(x)证明:由伴随式计算式(6.3.4)知S(x)R(x)(mod g(x)对上式两边作同余运算得 xS(x)xR(x)(mod g(x)(6.3.5)令 R(1)(x)xR(x)(mod(xn+1)(6.3.6)即用 R(1)(x)表示 R(x)循环移位一次(mod(xn+1)的码多项式。,第六章 信道编码,2023/11/11,72,对式(6.3.6)进行模 g(x)运算,得到 R(x)循环移位 xR(x)的伴随式 S(1)(x)xR(x)(mod g(x)考虑到式(6.3.5),则有 S(1)(x)xS(x)(mod g(x)上式说明:接收矢量的循环移位(mod(xn+1)运算下)与伴随式在模 g(x)运算下(即在除以 g(x)的伴随式计算电路中)的循环移位是一一对应的。,第六章 信道编码,2023/11/11,73,卷积码与分组码的不同之处 在任意给定单元时刻,编码器输出的 n 个码元中,每一个码元不仅和此时刻输入的 k 个信息元有关,还与前连续 m 个时刻输入的信息元有关。卷积码的描述方法描述卷积码编译码的过程,可以用不同的描述方法:如矩阵法、码树法、状态图法、篱笆图(栅格图)法等。,第六章 信道编码,2023/11/11,74,再见,