Skip to content

Basic

信息消息信号

信息的度量:信息量

信息量定义:对发生概率为p(X)的事件X,其信息量定义为:

I(X)=log2p(X)

抛硬币:p(X)=12,信息量:I(X)=log212=1bit

简单说,对于bit由于只有01两种状态,故对于一个概率为1/2的事件,其信息量为1bit,而对于概率为1的事件,其信息量为0bit,log20.0019.97bit

信息量与熵

熵:平均信息量

定义

设概率为p(x),则熵定义为:

H(X)=xXp(x)log2p(x)

如果是确定性事件 P(x)=1 ,则H(X)=1×log21=0,没有不确定性。

离散变量计算:

H(X)=i=1np(xi)log2p(xi)

e.g.:抛硬币:H(X)=12log21212log212=1bit 信息熵最大

e.g.2:

alt text

e.g.3:

设有千字文,每一字从万字表中选,求一篇的信息量:

总共有:1000001000=104000 篇文章

信息量为:H(X)=104000×1104000log21104000=log210400013288.97bit

信源

对于一个二元信源:

(XP)=(01pq)

如果横轴是概率 P,纵轴是熵 H,则曲线近似于一个对称轴为 P=0.5 的抛物线,在 P=0P=1 时,熵为0,在 P=0.5 时,熵最大为1。

对于一个n元信源,熵取值范围为 0H(X)log2n,当且仅当各符号概率相等时,熵达到最大值 log2n

而对于一个加密算法而言,熵越大,破解难度越大。假设有一个映射 PC,其中P为明文,C为密文,显然在为双射时,即每个明文对应唯一密文时,熵最大。

联合熵

表示 XY 同时发生时的不确定性:

H(X,Y)=xXyYp(x,y)log2p(x,y)

e.g.:

alt text

H(X,Y)=4×0.25×log20.25=2

条件熵

表示在已知Y的条件下,X的不确定性:

H(X|Y)=xXyYp(x,y)log2p(x|y)H(X|Y)=jp(x)H(X|Y=yj)

可用以下公式计算:

H(X,Y)=H(Y)+H(X|Y)=H(X)+H(Y|X)

互信息

定义:

I(X;Y)=xXyYp(x,y)log2p(x,y)p(x)p(y)

alt text

推导有:

I(X;Y)=H(X)H(X|Y)=H(Y)H(Y|X)

信源编码

作用:信息压缩

香农第一定律

H(X)L¯<H(X)+1

其中 L¯ 为平均码长

信源编码定理

设信源X的熵为H(X),则对于任意ε>0,存在一个信源编码,其平均码长L¯满足:

alt text