信息论与编码讲义第三讲.pptVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论与编码讲义第三讲.ppt

第二章:信息量和熵 §2.1 离散型随机变量的非平均信息量(事件的信息量) §2.2 离散型随机变量的平均自信息量(熵) §2.4 离散型随机变量的平均互信息量 §2.5 连续型随机变量的平均互信息量和相对熵 §2.6 凸函数与(离散型随机变量的)平均互信息量的凸性 §2.2 离散型随机变量的平均自信息量(熵) 定义2.2.1(平均自信息量——熵) 离散型随机变量{X, xk, qk, k=1~K}的平均自信息量(又称为熵)定义为如下的H(X),其中底数a是大于1的常数。 §2.2 离散型随机变量的平均自信息量(熵) 注意: (1)事件xk的自信息量值为h(xk)=loga(1/qk),因此H(X)是随机变量X的各事件自信息量值的“数学期望”。 (2)定义H(X)时,允许某个qk=0。(此时将qkloga(1/qk) 通盘考虑)此时补充定义qkloga(1/qk)=0。这个定义是合理的,因为 §2.2 离散型随机变量的平均自信息量(熵) 例2.2.1 离散型随机变量X有两个事件x1和x2, P(X=x1)=p,P(X=x2)=1-p。 则X的平均自信息量(熵)为 H(X)=ploga(1/p)+(1-p)loga(1/(1-p)) 。 观察H(X)(它是p的函数,图2.2.1给出了函数图象,该图象具有某种对称性),有 当p=0或p=1时,H(X)=0。(随机变量X退化为常数时,熵为0) 当0p1时,H(X)0。p越靠近1/2, H(X)越大。 (X是真正的随机变量时,总有正的熵。随机性越大,熵越大) 当p=1/2时,H(X)达到最大。(随机变量X的随机性最大时,熵最大。特别如果底数a=2,则H(X)=1比特) §2.2 离散型随机变量的平均自信息量(熵) 定义2.2.2(条件熵) 给定一个二维离散型随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J}。 称如下定义的H(X|Y)为X相对于Y的条件熵。 §2.2 离散型随机变量的平均自信息量(熵) 定义2.2.3(联合熵) 二维离散型随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J} 的联合熵定义为 §2.2 离散型随机变量的平均自信息量(熵) 熵、条件熵、联合熵之间的关系: (1)H(XY)=H(X)+H(Y|X)=H(Y)+H(X|Y)。(由定义容易证明) (2)当X与Y相互独立时,H(Y|X)=H(Y),因此此时H(XY)=H(X)+H(Y)。 证明 此时 §2.2 离散型随机变量的平均自信息量(熵) 熵的性质 对于随机变量{X, xk, qk, k=1~K}的熵H(X)=∑kqkloga(1/qk),有以下的性质。 1、 H(X)与事件{xk, k=1~K}的具体形式无关,仅仅依赖于概率向量{qk, k=1~K}。 而且H(X)与概率向量{qk, k=1~K}的分量排列顺序无关。 2、H(X)≥0。完全同理, H(X|Y)≥0;H(Y|X)≥0;H(XY)≥0。 3、确定性:当概率向量{qk, k=1~K}的一个分量为1时(此时其它分量均为0),H(X)=0。(这就是说,当随机变量X实际上是个常量时,不含有任何信息量)。 §2.2 离散型随机变量的平均自信息量(熵) 4、可忽略性:当随机变量X的某个事件的概率很小时,该事件对熵的贡献可以忽略不计。(虽然小概率事件的自信息量很大。这是因为当qk→0时,qkloga(1/qk)→0)。 5、可加性: H(XY)=H(X)+H(Y|X)=H(Y)+H(X|Y)。 因此,H(XY)≥H(X); H(XY)≥H(Y)。 (性质5有一个隐含的结论:设X的概率向量为 {q1, q2, …, qK}, Y的概率向量为 {q1, q2, …, qK-2, qK-1+qK}, 其中qK-1qK0,则H(X) H(Y)。 ) §2.2 离散型随机变量的平均自信息量(熵) 6、极值性:H(X)≤logaK。当q1=q2=…=qK=1/K时,才有 H(X)=logaK。 (以下是极值性的证明过程) 引理1 对任何x0总有lnx≤x-1。 证明 令f(x)=lnx-(x-1),则f‘(x)=1/x-1。因此 当0x1时f‘(x)0;当x1时f‘(x)0。 换句话说, 当0x1时,f(x)的值严格单调增; 当x1时,f(x)的值严格单调减。 注意到f(1)=0。所以对任何x0总有f(x)≤f(1)=0。得证。 §2.2 离散型随机变量的平均自信息量(熵) 引理2 设有两个K维概率向量(什么叫概率向量?) {qk, k=1~K}和{pk, k=1~K} 。 则总满足 §2.2 离散型随机变量的平均自信息量(熵) 证明 注

文档评论(0)

zhoubingchina + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档