Skip to content

Week 1

信息消息信号

信息的度量:信息量

信息量定义:对发生概率为p(X)的事件X,其信息量定义为:

I(X)=log2p(X)

抛硬币:p(X)=12,信息量:I(X)=log212=1bit

简单说,对于bit由于只有01两种状态,故对于一个概率为1/2的事件,其信息量为1bit,而对于概率为1的事件,其信息量为0bit,log20.0019.97bit

信息量与熵

熵:平均信息量

定义

设概率为p(x),则熵定义为:

H(X)=xXp(x)log2p(x)

如果是确定性事件 P(x)=1 ,则H(X)=1×log21=0,没有不确定性。

e.g.1:抛硬币:H(X)=12log21212log212=1bit 信息熵最大

e.g.2: p(x)=16,熵:

H(X)=6×16log216=log262.585bits

离散变量计算:

H(X)=i=1np(xi)log2p(xi)

对于一个二元信源,如果横轴是概率 P,纵轴是熵 H,则曲线近似于一个对称轴为 P=0.5 的抛物线,在 P=0P=1 时,熵为0,在 P=0.5 时,熵最大为1。

对于一个n元信源,熵取值范围为 0H(X)log2n,当且仅当各符号概率相等时,熵达到最大值 log2n

而对于一个加密算法而言,熵越大,破解难度越大。假设有一个映射 PC,其中P为明文,C为密文,显然在为双射时,即每个明文对应唯一密文时,熵最大。

互信息

定义:

I(X;Y)=xXyYp(x,y)log2p(x,y)p(x)p(y)

信源编码

信息压缩

香农第一定律

信源编码定理

设信源X的熵为H(X),则对于任意ε>0,存在一个信源编码,其平均码长L¯满足: