信息论考试试题及答案.docVIP

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

信息论考试试题及答案

一、单项选择题(每题2分,共10题)

1.信息的基本度量单位是()

A.比特B.字节C.波特D.赫兹

2.离散无记忆信源熵的计算公式是()

A.\(H(X)=-\sum_{i=1}^{n}p(x_{i})\logp(x_{i})\)B.\(H(X)=\sum_{i=1}^{n}p(x_{i})\logp(x_{i})\)

C.\(H(X)=-\sum_{i=1}^{n}p(x_{i})\log_2p(x_{i})\)D.\(H(X)=\sum_{i=1}^{n}p(x_{i})\log_2p(x_{i})\)

3.信道容量是指()

A.信道输入的最大信息量B.信道输出的最大信息量

C.信道无差错传输的最大信息传输率D.信道传输信息的平均速率

4.以下哪种编码属于即时码()

A.{0,10,11}B.{0,01,11}C.{00,01,1}D.{1,01,001}

5.香农第一定理是关于()

A.无失真信源编码B.有噪信道编码C.限失真信源编码D.信道容量

6.对于平稳遍历信源,其信源熵()

A.随时间变化B.与初始状态有关C.是一个定值D.不确定

7.信源的剩余度反映了()

A.信源信息的冗余程度B.信源输出信息的速率

C.信源的平均不确定性D.信源编码的效率

8.若信源\(X\)有三个消息,概率分别为\(0.5\),\(0.25\),\(0.25\),则\(H(X)\)为()

A.1.5比特B.2比特C.1比特D.0.5比特

9.哈夫曼编码的主要依据是()

A.信源符号的概率分布B.信源的输出速率

C.信道的传输特性D.信息的冗余度

10.高斯白噪声信道的信道容量公式为()

A.\(C=B\log(1+\frac{S}{N})\)B.\(C=B\log_2(1+\frac{S}{N})\)

C.\(C=B\ln(1+\frac{S}{N})\)D.\(C=B\log_2(1+\frac{N}{S})\)

答案:1.A2.C3.C4.A5.A6.C7.A8.A9.A10.B

二、多项选择题(每题2分,共10题)

1.信息的主要特征有()

A.客观性B.传递性C.共享性D.时效性

2.以下哪些属于信源的分类()

A.离散信源B.连续信源C.平稳信源D.马尔可夫信源

3.信道的分类方式有()

A.离散信道B.连续信道C.无记忆信道D.有记忆信道

4.衡量编码性能的指标有()

A.编码效率B.码长C.译码复杂度D.差错率

5.以下关于信源熵的说法正确的是()

A.信源熵表示信源的平均不确定性

B.信源熵越大,信源信息越丰富

C.等概率分布信源熵最大

D.信源熵与信源符号的概率分布有关

6.香农三大定理包括()

A.无失真信源编码定理B.有噪信道编码定理

C.限失真信源编码定理D.信道容量定理

7.常见的信源编码方法有()

A.哈夫曼编码B.算术编码C.Lempel-Ziv编码D.线性分组码

8.影响信道容量的因素有()

A.信道带宽B.信号功率C.噪声功率D.信源符号数

9.以下哪些是离散信道的特性参数()

A.转移概率B.信道矩阵C.噪声功率谱D.带宽

10.关于互信息,正确的说法是()

A.互信息表示两个随机变量之间的统计依赖程度

B.互信息是非负的

C.当两个随机变量相互独立时,互信息为0

D.互信息与信源和信道都有关系

答案:1.ABCD2.ABCD3.ABCD4.ABC5.ABCD6.ABC7.ABC8.ABC9.AB10.ABCD

三、判断题(每题2分,共10题)

1.信息和消息是同一个概念。()

2.信源熵是信源输出单个符号所携带的平均信息量。()

3.无记忆信道的输出只与当前输入有关。()

4.哈夫曼编码一定是唯一的。()

5.信道容量是信道传输信息的实际速率。()

6.平稳信源的统计特性不随时间变化。()

7.信源剩余度为0时,信源无冗余信息。(

文档评论(0)

137****1793 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档