信息论与编码(傅祖云-讲义)第三章.ppt
《信息论与编码(傅祖云-讲义)第三章.ppt》由会员分享,可在线阅读,更多相关《信息论与编码(傅祖云-讲义)第三章.ppt(63页珍藏版)》请在三一办公上搜索。
1、第三章 离散信道及其信道容量,3.1 信道的数学模型及分类,3.2 平均互信息及平均条件互信息,3.3 平均互信息的特征,3.4 信道容量及其一般计算方法,小结,本章主要内容:,3.9 信源与信道的匹配,第三章 离散信道及其信道容量,本章的重、难点内容:了解信道的分类及基本数学模型掌握平均互信息和平均条件互信息的概念和意义知道平均互信息的特征掌握信道容量及其一般计算方法*,3.1信道的数学模型及分类,在广义的通信系统中,信道是很重要的一部分。信道的任务是以信号方式传输信息和存储信息。研究信道的目的就是研究信道中能够传送或存储的最大信息量,即信道容量问题。本章首先讨论离散信道的统计特性和数学模型
2、,然后定量地研究信道传输的平均互信息及其性质,并导出信道容量及其计算方法。本章只限于研究一个输入端和一个输出端即单用户信道,以无记忆、无反馈、恒参离散信道为重点。,3.1.1 信道的分类,根据信道的用户多少根据信道输入输出的关联根据信道参数与时间的关系根据输入输出信号的特点,两端(单用户)信道,多端(多用户)信道,无反馈信道,反馈信道,固定参数信道,时变参数信道,离散信道,连续信道,半离散或半连续信道,波形信道,离散信道的数学模型,离散信道的数学模型如下图所示,图3.1 离散信道数学模型,根据信道的统计特性即条件概率 的不同,离散信道又可分成三种情况。,离散信道的数学模型,无干扰(无噪)信道有
3、干扰无记忆信道:离散无记忆信道的充要条件对任意N值和任意x、y的取值,上式都成立。有干扰有记忆信道:即有干扰(噪声)又有记忆,实际信道往往是这种类型。信道输出不但与输入有关,还与其它时刻的输入和输出有关,这样的信道称为有记忆信道。,单符号离散信道的数学模型,单符号离散信道的输入变量为X,取值于;输出变量为Y,取值于。并有条件概率 这一组条件概率称为信道的传递概率或转移概率一般简单的单符号离散信道的数学模型可以用概率空间X,p(y|x),Y来描述。,两种重要的二元信道BSC和BEC,例3.1 二元对称信道BSC(Binary Symmetric Channel)这是很重要的一种特殊信道。输入符号
4、X取值于0,1;输出符号也取值于0,1。传递概率:传递矩阵:,两种重要的二元信道BSC和BEC,例3.2 二元删除信道BEC(Binary Erasure Channel)这也是很重要的一种特殊信道。输入符号X取值于0,1;输出符号取值于0,2,1。信道传递矩阵:,二元删除信道BEC的说明,这种信道实际是存在的,当信号波形传输中失真较大时,我们在接收端不是对接收信号硬性判为0和1,而是根据最佳接收机额外给出的信道失真信息增加一个中间状态2(称为删除符号),采用特定的纠删编码,可有效的恢复出这个中间状态的正确取值。如果信道干扰不是很严重的话,和 的可能性要比 和 的可能性小得多,所以,假设 是较
5、合理的。,单符号离散信道的数学模型,由此可见,一般单符号离散信道的转移概率可用信道转移矩阵P来表示:关于信道矩阵的几点说明:1、输入和输出符号的联合概率为,单符号离散信道的数学模型,其中 是信道传递概率,通常称为前向概率,它是由于噪声引起的,描述了信道噪声的特性。而 称为后向概率。也把 称为先验概率,而把 称为后验概率。2、根据联合概率可得输出符号的概率3、根据贝叶斯公式得后验概率上式说明,在信道输出端接收到任一符号 一定是输入符号,中的一个输入信道。,3.2平均互信息及平均条件互信息,信道疑义度信源输入信道的熵先验熵H(X)信道中有干扰(噪声)存在,接收到符号 后输入的是什么符号仍存在有不确
6、定性 后验熵。意义:后验熵是当信道接收端接收到输出 符号 后,关于输入符号的信息测度。,信道疑义度,后验熵在输出符号集Y范围内是个随机量,对后验熵在符号集Y中求数学期望,得条件熵为信道疑义度(含糊度):意义:信道疑义度表示在输出端收到输出变量Y的符号后,对于输入端的变量X尚存在的平均不确定性(存在疑义)。这是由于信道干扰(噪声)引起的。,信道疑义度的说明,对于一一对应信道,接收到输出Y后,对X的不确定性将完全消除,信道疑义度。一般情况下条件熵小于无条件熵,有。说明接收到变量Y的所有符号后,关于输入变量X的平均不确定性将减少,即总能消除一些关于输入端X的不确定性,从而获得了一些信息。,3.2.2
7、 平均互信息,通过信道传输消除了一些不确定性,获得了一定的信息。我们定义:称为X和Y之间的平均互信息。物理意义:它代表接收到输出符号后平均每个符号获得的关于X的信息量。它也表明,输入与输出两个随机变量之间的统计约束程度。互信息 是代表收到某消息y后获得关于某事件x的信息量。它可取正值,也可取负值。是 的统计平均,所以。,平均互信息与各类熵之间的关系,熵只是平均不确定性的描述,而不确定性的消除(两熵之差)才等于接收端所获得的信息量。因此,获得的信息量不应该和不确定性混为一谈。维拉图表示的各类熵之间的关系:,H(X|Y),H(Y|X),I(X;Y),H(X),H(Y),H(XY),平均互信息与各类
8、熵之间的关系,每个圆减去平均互信息后剩余的部分代表两个疑义度 是信道疑义度,又称为损失熵 反映了信道中噪声源的不确定性,又称噪声熵或散布度,平均互信息与各类熵之间的关系,下面讨论两种极端情况1、无噪一一对应信道(无损信道)此时可以计算得:在图中就表示是两圆重合。信道中损失熵和噪声熵都为零。有2、输入输出完全统计独立(全损信道),3.3平均互信息的特性,1、平均互信息的非负性该性质表明,通过信道总能传递一些信息,最差的条件下,输入输出完全独立,不传递任何信息,互信息等于0,但决不会失去已知的信息。2、平均互信息的极值性一般来说,信道疑义度总是大于0,所以互信息总是小于信源的熵,只有当信道是无损信
9、道时,信道疑义度等于0,互信息等于信源的熵。,平均互信息的特征,3、平均互信息的交互性(对称性)实际上I(X;Y)和I(Y;X)只是观察者的立足点不同,对信道的输入X和输出Y的总体测度的两种表达形式。正因为有交互性,所以命名为互信息。4、平均互信息的凸状性(两个定理)定理3.1 平均互信息 是信源概率分布p(x)的型凸函数。,平均互信息的特征,定理3.1的意义:对于每一个固定信道,一定存在一种信源(某一概率分布P(X)),使输出端获得的平均信息量为最大Imax(型凸函数存在极大值)。这时称这个信源为该信道的匹配信源。定理3.2 平均互信息 是信道传递概率 的型凸函数。定理3.2的意义:对每一种
10、信源都存在一种最差的信道,此信道的干扰(噪声)最大,而输出端获得的信息量最小Imin。,二元对称信道BSC的平均互信息,例3.4设二元对称信道的输入概率空间为 信道特性如图所示,求平均互信息解:根据平均互信息的定义得:,二元对称信道BSC的平均互信息,输出符号的概率:则所以,二元对称信道BSC的平均互信息,其中 也是 区域上的熵函数。当信道固定即固定p时,可得 是的型函数,如图所示。,3.4信道容量及其一般计算方法,预备知识及几个定义:研究信道的目的是要讨论信道中平均每个符号所能传送的信息量,即信道的信息传输率R。定义信息的传输率就是平均互信息。即定义单位时间内平均传输的信息量为信息传输速率。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 编码 傅祖云 讲义 第三
链接地址:https://www.31ppt.com/p-5230706.html