Shannon 编码定理

科普中国-科学百科 2018-02-25

  在信息论中,香农的信源编码定理(或无噪声编码定理)确立了数据压缩的限度,以及香农熵的操作意义。

  信源编码定理表明(在极限情况下,随着独立同分布随机变量数据流的长度趋于无穷)不可能把数据压缩得码率(每个符号的比特的平均数)比信源的香农熵还小,不满足的几乎可以肯定,信息将丢失。但是有可能使码率任意接近香农熵,且损失的概率极小。

  码符号的信源编码定理把码字的最小可能期望长度看作输入字(看作随机变量)的熵和目标编码表的大小的一个函数,给出了此函数的上界和下界。

  陈述

  信源编码是从信息源的符号(序列)到码符号集(通常是bit)的映射,使得信源符号可以从二进制位元(无损信源编码)或有一些失真(有损信源编码)中准确恢复。这是在数据压缩的概念。

  信源编码定理

  在信息论中,信源编码定理非正式地陈述为:

  N个熵均为H(X)的独立同分布的随机变量在N→∞时,可以很小的信息损失风险压缩成多于N H(X)bit;但相反地,若压缩到少于 bit,则信息几乎一定会丢失。

  码符号的信源编码定理

  令Σ1,Σ2表示两个有限编码表,并令Σ1*和Σ2*(分别)表示来自那些编码表的所有有限字的集合。

  设X为从Σ1取值的随机变量,令 f 为从Σ1*到Σ2*的唯一可译码,其中|Σ2|=a。令S表示字长 f (X)给出的随机变量。

  如果 f 是对X拥有最小期望字长的最佳码,那么:

  

  证明:码符号的信源编码定理

  对于1≤i≤n令si表示每个可能的xi的字长。定义 ,其中C会使得q1+...+qn=1。于是

   其中第二行由吉布斯不等式推出,而第五行由克拉夫特不等式推出:

   因此logC≤0。

  对第二个不等式我们可以令

   于是

   因此

   并且

  因此由克拉夫特不等式,存在一种有这些字长的无前缀编码。因此最小的S满足

  

  本词条内容贡献者为:

  陈红 - 副教授 - 西南大学

责任编辑:科普云

上一篇:渐近法放边桩

下一篇:格栅

科普中国APP 科普中国微信 科普中国微博
科普中国-科学百科
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢