信息论与编码 简答.docx
《信息论与编码 简答.docx》由会员分享,可在线阅读,更多相关《信息论与编码 简答.docx(7页珍藏版)》请在三一办公上搜索。
1、信息论与编码 简答四、简答 1、信息的主要特征有哪些? 答:信息具有以下特征:信息是可以识别的信息的载体是可以转换的信息是可以存贮的信息是可以传递的信息是可以加工的信息是可以共享的 2、信息的重要性质有哪些? 答:可靠性、保密性、有效性、认证性 3、简述几种信息分类的准则和方法。 狭义信息论、一般信息论、广义信息论 4、信息论研究的内容主要有哪些? 答:对信息论的研究内容一般有以下三种理解。 狭义信息论:主要研究信息的测度、信道容量以及信源和信道编码理论等问题。这部分内容是信息论的基础理论,又称为香农信息论。 一般信息论:主要是研究信息传输和处理问题,除了香农理论外,还包括噪声理论、信号滤波和
2、预测、统计检测和估计理论、调制理论以及信息处理理论等。 广义信息论:广义信息论不仅包括上述两方面的内容,而且包括所有与信息有关的领域,如模式识别、计算机翻译、心理学、遗传学、语言学等等。 五、简述自信息的性质。 答:概率为0时,相应的自信量无意义、非负性、可加性 六、简述信源熵的基本性质。 答:1、对称性:H(P) 的取值与分量 p1, p2 , , pq的顺序无关。2、确定性:H(1,0)=H(1,0,0)=H(1,0,0,0)=0 3、非负性: H(P) 04、扩展性5、可加性:统计独立信源X和Y的联合信源的熵等于信源X和Y各自的熵之和。H(XY) = H(X)+ H(Y) 6、强可加性:
3、两个互相关联的信源X和Y的联合信源的熵等于信源X的熵加上在X已知条件下信源Y的条件熵。 H=H+ H7、递增性8、极值性 在离散信源情况下,信源各符号等概率分布时,熵值达到最大。9、上凸性 七、简述信源熵、条件熵、联合熵和交互熵之间的关系。 H(XY) = H(X) + H(Y|X) H(XY) = H(Y) + H(X|Y) H(X) = H(X|Y) H(Y) = H(Y|X) H(XY) C,总可以找到一种编码,当L足够长时,译码错误概率pee,为任意大于零的正数。反之,当RC时,任何编码的必大于零,当L时,pe1。香农第二定理只pe是一个存在性定理,它指出信道容量是一个临界值,只要信息
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论与编码 简答 信息论 编码

链接地址:https://www.31ppt.com/p-3280379.html