通信原理课件第3讲信源编码:信息论部分.ppt
《通信原理课件第3讲信源编码:信息论部分.ppt》由会员分享,可在线阅读,更多相关《通信原理课件第3讲信源编码:信息论部分.ppt(36页珍藏版)》请在三一办公上搜索。
1、信源与信源编码,信源编码,信道编码,发送滤波器,接收滤波器,信道译码,信源解码,调制器,解调器,信源,信道,信宿,信息的度量方法:信息量与信息熵信息的编码方法:定长编码与变长编码信息率失真函数的意义信源的限失真编码(模拟信号数字信号),一、信源的分类及其数学模型,信源从消息的表现形式上可以分为离散信源和连续信源1)离散信源:文字、电报等;单消息离散信源:2)连续信源:声音、图像单消息连续信源:其中p(x)表示具体取连续值x的概率密度,在实际中,消息多为连续的模拟消息:比如声音、图像长度为L个符号的消息序列信源的取值集合XL则此长度为L的离散信源可用一个长为L的随机矢量表示,用随机过程X(t)描
2、述,由多个单消息组成,其中每个符号可随机取值形成随机序列,在一串时间点上对X(t)取值,形成一串离散序列,当消息序列中每个消息符号Xi 以概率P(xi)取随机值xi时,随机矢量X取得一个随机样值,表示为:随机矢量X取的样值x的概率表示为一个L维的联合概率:则对于离散消息序列信源可表示为:,二、信息量与信息熵,对于信息而言:1)最大的特征:不确定性或随机性 2)采用概率的方法进行度量度量信息的随机性 3)随机性越强,蕴含的信息量越大;随机性越弱,蕴含的信息量越小信息论的主要内容之一就是如何度量信息的随机性对于单信息,当X以概率P(xi)取值xi时,其信息量记为:则单消息信源的信息熵记为:即:取信
3、息量的统计平均值,1)单消息离散信源的自信息量 若单消息X,它以极小的概率P(xi)取值xi,随机性强,则产生的信息量大,反之产生的信息量则小,那么:当P(xi)增大,IP(xi)减小;当P(xi)减小,IP(xi)增大即X=xi 所产生的信息量是其所对应概率的递减函数自信息量满足可加性:若两个单消息X,Y相互独立,则分别以概率P(xi)和P(yi)取xi和yi时所产生的信息量,应为二者之和:,2)两个单消息离散信源的联合自信息量若两个单消息X,Y有统计关联时,条件自信息量和两个消息的联合自信息量分别计算如下:,香农将信源输出一个符号所含的平均信息量H(X)定义为信源的信息熵,用于描述信源的平
4、均不确定性,其计算公式如下:熵的最大值为:当且仅当:熵的单位取决于对数的底:1)若公式中的对数以 2为底时,熵的单位为比特(bit);2)若公式中的对数以 e为底时,熵的单位为奈特(Nat);3)若公式中的对数以10为底时,熵的单位为笛特(Det)三者之间的关系:,信源输出的消息具有多种可能性,信息的熵可理解为这信源所输出的具有多种可能性的消息的平均信息量,联合熵与条件熵的计算:这三者之间的关系:,在已知一个符号的前提下,另一个符号所产生的信息熵,两个符号共同产生的信息熵,信源冗余度:假设某个信源X可以输出L个符号X1、X2XL,这L个符号之间存在记忆,即相互关联,则信源熵可表示为:定义消息序
5、列信源平均每发出一个符号所含的信息熵:当L时,则下式成立:,则多余的信息量为:信源的效率:信源的冗余度:信源的冗余度表明信源所发出的信息有多余分量,若不进行处理,在进行传送时,会占用信道资源,导致信道利用率的降低,信源的效率越低则冗余度越大,三、互信息,信源输出的平均信息量被接收端收到后的信息量称为互信息:I(X;Y),各种熵之间的关系:,四、无失真离散信源编码定理,信源编码:1)离散信源输出的是各种离散消息和符号;2)为了能将离散消息和符号在信道上传输,必须将这 些消息和符号进行数字化,即进行信源编码保证无失真的信源编码的两点要求:1)信息速率要小;2)接收端能够译码并从编码序列中恢复出原始
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 通信 原理 课件 信源 编码 信息论 部分
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-6028562.html