1.图像编码原因:
传递数据信息时,通常相同的信息量可以通过不同大小的数据量去表示,显然小数据量去表示大信息量是效益最高的,而图像编码即是尝试用不同的表达方式以减少表示图像的数据量,对图像的压缩可以通过对图像的编码实现。
2.数据压缩
减少表示给定信息所需要的数据量,包含不想管和重复信息的数据惩治为冗余数据。数据压缩的目的就是消除冗余数据。
2.1 压缩率和相对冗余度
压缩率: C=n1n2C=n1n2, 相对冗余度:R=n1−n2n1=1−1CR=n1−n2n1=1−1C
其中,n1n1为压缩前的数据量(比特数),n2n2为压缩后的数据量。
2.2 静态图像冗余类型
2.2.1 编码冗余
编码是用于表示信息实体和时间集合的符号系统(字母、数字。比特和类似的符号等)。
- 码字: 每个信息和事件(灰度值)被赋予了一个编码符号的序列(0x00-0xFF)
- 码长: 码字中的符号数量(8)
- 码本: 构成码字的所有编码符号的集合(0和1)
每个像素的平均比特数
Lavg=L−1∑k=0l(rk)pr(rk)Lavg=L−1∑k=0l(rk)pr(rk)
其中rkrk为某一灰度值, pr(rk)pr(rk)为该灰度值使用的码字的码长(即所用的比特数),根据上式可以得出LavgLavg
注:
- 1.如果用较少的比特数表示出现概率较大的灰度级,用较多的的比特数表示概率较小的灰度级,得到的平均比特数较小。
- 2.如果平均比特数不能达到最小,就说明存在编码冗余。
- 3.冗余度越大,可压缩量越大
- 自然码平均码长: 8
- 变长码平均码长: 1.81
- 压缩率: 8/1.81 = 4.42
- 冗余度: 1-1/4.42 = 0.774
如上表所示,图像的像素值为0-255,可用8位自然码表示,统计图像像素值出现概率,出现概率较大的像素值用较少位数的变长码表示。
见上表,像素值128出现概率最高,,为0.47,则其所对应变长码为1。接下来出现概率第二高的变长码概率设置为10, 随后11、100、101...以此类推。
2.2.2 视觉(空间)冗余
在同一个图像中,相邻的两个像素点,会有很多色彩是很接近的,那么如很能在最后得到的图片中,尽量少得记录这些不需要的数据点,也即达到了压缩的效果。
这便涉及到了图像信号的频谱特性
图像信号的频谱线一般在0-6MHz范围内,而且一幅图像内,包含了各种频率的分量。但包含的大多数为低频频谱线,只在占图像区域比列很低的图像边缘的信号才含有高频的谱线。
因此具体的方法就是根据频谱因随分配比特数——对包含信息量大的低频谱区域分配较多的比特数,对包含信息量低的高频谱区域分配较少的比特数,而图像质量并没有可察觉的损失,以达到数据压缩的目的。
将原始图像的空间域转化为频谱域用到了数学上的离散余弦变换,即DCT(Discrete Cosine Transform)变换,DCT是基于傅里叶变换的一个变种。
2.2.3 心理视觉冗余
由于眼睛对所有视觉信息感受的灵敏度不同,以及人眼在正常的视觉处理过程中信息的相对重要程度不同,图像中的部分被视觉系统忽略的信息可以被当作是冗余信息去除。
3.信息论相关
3.1图像信息的度量
信息论中,一个具有概率P(E)的随机时间E所包含的信息量I(E)为:
I(E)=log1P(E)=−logP(E)I(E)=log1P(E)=−logP(E)
对数的底决定了信息单位,一般取2
3.2 信号源
一幅图像可以看作一个具有随机离散输出的信源,信源可以从一个有限的符号集中产生一个随机的符号序列。
信源集 B=B={b1,b2,...,bjb1,b2,...,bj}
概率矢量 u=u=[PP(b1b1),PP(b2b2),...,PP(bjbj)]TT
3.3 熵
3.3.1 香农熵(Shannon Entropy)
香农熵是用来描述信息量的多少、随机变量不确定性的度量
- 给定一个随机变量X,有:
p(x)=Pr{X=x},x∈ωp(x)=Pr{X=x},x∈ω
- 香农熵为:
H(X)=−∑x∈ωp(x)log2p(x)H(X)=−∑x∈ωp(x)log2p(x)
3.3.2 联合熵(Joint Entropy)
衡量一对随机变量所包含的信息量,两个随机变量联合不确定性的度量,联合熵描述了随机变量的相关性,越小越相关(X,Y)及联合分布p(x,y)
H(X,Y)=−∑x∈X∑y∈Yp(x,y)log2px,yH(X,Y)=−∑x∈X∑y∈Yp(x,y)log2px,y
3.3.3 条件熵 (Conditional Entrophy)
已知YY随机变量的前提下,随机变量XX提供的信息量,根据:
p(x|y)=p(x,y)p(y)p(x|y)=p(x,y)p(y)
可以得到:
H(X|Y)=−∑x∈X∑y∈Yp(x,y)log2p(x|y)=−∑x∈X∑y∈Yp(x,y)log2p[(x,y)p(y)]=H(X,Y)−H(Y)H(X|Y)=−∑x∈X∑y∈Yp(x,y)log2p(x|y)=−∑x∈X∑y∈Yp(x,y)log2p[(x,y)p(y)]=H(X,Y)−H(Y)
对于联合分布和边缘分布,把X或Y的熵称作边缘熵,于是有:
H(Y|X)=H(X,Y)−H(X)H(Y|X)=H(X,Y)−H(X)
3.3.4 累计剩余熵(Cumulative Residual Entropy, CRE)
将香农熵定义中概率分布换成累计概率分布
ϵ(X)=−∑x∈XP(X>x)logP(X>x)ϵ(X)=−∑x∈XP(X>x)logP(X>x)
3.3.5 瑞利熵(RE)
瑞利熵是香农熵的一种推广形式,又称作αα熵
Rα(X)=11−αlog∑x∈Xp(x)a(α>0,α≠1)Rα(X)=11−αlog∑x∈Xp(x)a(α>0,α≠1)
当α→1α→1,求得瑞利熵的极限为香农熵,求极限用洛必达法则即可
3.4 相似性度量
3.4.1 互信息(Mutual Information, MI)
互信息衡量随机变量XX,YY之间的依赖程度,用来测量联合概率分布和二者完全独立时的分布之间的距离,使用KL散度(或称为相对熵)来定义
MI(X,Y)=∑x∑yp(x,y)=logp(x,y)p(x)⋅(y)MI(X,Y)=∑x∑yp(x,y)=logp(x,y)p(x)⋅(y)
互信息、联合熵、边缘熵、条件熵之间有紧密的关系
MI(x,y)=H(X)+H(Y)−H(X,Y)=H(X)−H(X|Y)=H(Y)−H(Y|X)MI(x,y)=H(X)+H(Y)−H(X,Y)=H(X)−H(X|Y)=H(Y)−H(Y|X)
互信息表示XX中包含Y的信息的多少,也就是对称的Y中包含X的多少。若X,Y独立则I(X,Y)=0 ,若一一相关,则I(X,Y)=H(X)=H(Y)
3.4.2 归一化互信息(Normalized Mutual Information,NMI)
为了解决互信息对图像部分重叠区域的敏感性,NMI应运而生
NMI(X,Y)=H(X)+H(Y)H(X,Y)
3.4.3 熵相关系数(Entropy Correlation Coefficient, ECC)
可以看作为另一种归一化信息方法
ECC=2I(X,Y)H(X),+H(Y)=2−2NMI
3.4.4 互累计剩余熵(Cross Cumulative Residual Entropy,CRE)
和互信息类似,只不过这里的熵换成了累计剩余熵
CCRE(X,Y)=ϵ(X)−E[ϵ(Y|X)]
3.4.5 Alpha互信息(Alpha Mutual Information ,α−MIα−MI)
顾名思义,根据α熵得出α熵
Dα=1α−1log∑x∈X∑y∈Yp(x,y)α(p(x)p(y))1−α
3.4.6 相对熵(KL散度)
相对熵也称作为KL散度,可以衡量两个分布之间的差异,p,q是x上的两个分布
DKL(P||q)=∑p(x)logp(x)q(x)
3.4.7 交叉熵
交叉熵是KL散度的一部分
H(p,q)=∑x∈Xp(x)log(q(x))
3.4.8 詹森香农散度(JS散度)
因为KL散度不对称,所以詹森提出了JS散度
JS(p||q)=12DKL(p||p+q2)+12DKL(q||p+q2))
3.4.9 詹森瑞利散度
詹森香农散度与瑞利熵的结合
JRωα(X,Y)=Rα(Y)−∑x∈Xp(x)Rα(Y|x)
参考资料:
- [1] 图像中用到的信息论中的一些概念公式
- [2] 图像编码技术