1st's Studio.

图像编码基础

字数统计: 2.1k阅读时长: 8 min
2022/03/04

1.图像编码原因:

  传递数据信息时,通常相同的信息量可以通过不同大小的数据量去表示,显然小数据量去表示大信息量是效益最高的,而图像编码即是尝试用不同的表达方式以减少表示图像的数据量,对图像的压缩可以通过对图像的编码实现。

2.数据压缩

  减少表示给定信息所需要的数据量,包含不想管和重复信息的数据惩治为冗余数据。数据压缩的目的就是消除冗余数据。

2.1 压缩率和相对冗余度

  压缩率: \(C=\frac{n_{1} }{n_{2} }\),   相对冗余度:\(R=\frac{n_{1}-n_{2}}{n_{1}}=1-\frac{1}{C}\)

  其中,\(n_{1}\)为压缩前的数据量(比特数),\(n_{2}\)为压缩后的数据量。

2.2 静态图像冗余类型

2.2.1 编码冗余

编码是用于表示信息实体和时间集合的符号系统(字母、数字。比特和类似的符号等)。

  • 码字: 每个信息和事件(灰度值)被赋予了一个编码符号的序列(0x00-0xFF)
  • 码长: 码字中的符号数量(8)
  • 码本: 构成码字的所有编码符号的集合(0和1)

每个像素的平均比特数

\[L_{avg}=\sum_{k=0}^{L-1}l(r_{k})p_{r}(r_{k})\]

其中\(r_{k}\)为某一灰度值, \(p_{r}(r_{k})\)为该灰度值使用的码字的码长(即所用的比特数),根据上式可以得出\(L_{avg}\)

注:

  • 1.如果用较少的比特数表示出现概率较大的灰度级,用较多的的比特数表示概率较小的灰度级,得到的平均比特数较小。
  • 2.如果平均比特数不能达到最小,就说明存在编码冗余。
  • 3.冗余度越大,可压缩量越大

  • 自然码平均码长: 8
  • 变长码平均码长: 1.81
  • 压缩率: 8/1.81 = 4.42
  • 冗余度: 1-1/4.42 = 0.774

  如上表所示,图像的像素值为0-255,可用8位自然码表示,统计图像像素值出现概率,出现概率较大的像素值用较少位数的变长码表示。

  见上表,像素值128出现概率最高,,为0.47,则其所对应变长码为1。接下来出现概率第二高的变长码概率设置为10, 随后11、100、101...以此类推。

2.2.2 视觉(空间)冗余

  在同一个图像中,相邻的两个像素点,会有很多色彩是很接近的,那么如很能在最后得到的图片中,尽量少得记录这些不需要的数据点,也即达到了压缩的效果。

这便涉及到了图像信号的频谱特性

  图像信号的频谱线一般在0-6MHz范围内,而且一幅图像内,包含了各种频率的分量。但包含的大多数为低频频谱线,只在占图像区域比列很低的图像边缘的信号才含有高频的谱线。

  因此具体的方法就是根据频谱因随分配比特数——对包含信息量大的低频谱区域分配较多的比特数,对包含信息量低的高频谱区域分配较少的比特数,而图像质量并没有可察觉的损失,以达到数据压缩的目的。

将原始图像的空间域转化为频谱域用到了数学上的离散余弦变换,即DCT(Discrete Cosine Transform)变换,DCT是基于傅里叶变换的一个变种。

2.2.3 心理视觉冗余

  由于眼睛对所有视觉信息感受的灵敏度不同,以及人眼在正常的视觉处理过程中信息的相对重要程度不同,图像中的部分被视觉系统忽略的信息可以被当作是冗余信息去除。

3.信息论相关

3.1图像信息的度量

信息论中,一个具有概率P(E)的随机时间E所包含的信息量I(E)为:

\(I(E)=log\frac{1}{P(E)}=-logP(E)\)

对数的底决定了信息单位,一般取2

3.2 信号源

一幅图像可以看作一个具有随机离散输出的信源,信源可以从一个有限的符号集中产生一个随机的符号序列。

信源集  \(B=\){\(b_{1},b_{2},...,b_{j}\)}
概率矢量   \(u=\)[\(P\)(\(b_{1}\)),\(P\)(\(b_{2}\)),...,\(P\)(\(b_{j}\))]\(^T\)

3.3 熵

3.3.1 香农熵(Shannon Entropy)

香农熵是用来描述信息量的多少、随机变量不确定性的度量

  • 给定一个随机变量X,有:

\[p(x)=P_{r}\{X=x\},x\in\omega\]

  • 香农熵为:

\[H(X)=-\sum_{x\in\omega}p(x)log_{2}p(x)\]

3.3.2 联合熵(Joint Entropy)

衡量一对随机变量所包含的信息量,两个随机变量联合不确定性的度量,联合熵描述了随机变量的相关性,越小越相关(X,Y)及联合分布p(x,y)

\[H(X,Y)=-\sum_{x\in X}\sum_{y\in Y}p(x,y)log_{2}p{x,y}\]

3.3.3 条件熵 (Conditional Entrophy)

已知\(Y\)随机变量的前提下,随机变量\(X\)提供的信息量,根据:

\[p(x|y)=\frac{p(x,y)}{p(y)}\]

可以得到:

\[ \begin{aligned} H(X|Y)&=-\sum_{x\in X}\sum_{y\in Y}p(x,y)log_{2}p(x|y) \\ & =-\sum_{x\in X}\sum_{y\in Y}p(x,y)log_{2}p[\frac{(x,y)}{p(y)}] \\ &=H(X,Y)-H(Y) \end{aligned}\]

对于联合分布和边缘分布,把X或Y的熵称作边缘熵,于是有:

\[H(Y|X)=H(X,Y)-H(X)\]

3.3.4 累计剩余熵(Cumulative Residual Entropy, CRE)

将香农熵定义中概率分布换成累计概率分布

\[\epsilon(X)=-\sum_{x\in X}P(X>x)logP(X>x)\]

3.3.5 瑞利熵(RE)

瑞利熵是香农熵的一种推广形式,又称作\(\alpha\)

\[R_{\alpha}(X)=\frac{1}{1-\alpha}log\sum_{x\in X}p(x)^{a} \quad (\alpha>0,\alpha \neq 1)\]

\(\alpha\rightarrow1\),求得瑞利熵的极限为香农熵,求极限用洛必达法则即可

3.4 相似性度量

3.4.1 互信息(Mutual Information, MI)

互信息衡量随机变量\(X\),\(Y\)之间的依赖程度,用来测量联合概率分布和二者完全独立时的分布之间的距离,使用KL散度(或称为相对熵)来定义

\[MI(X,Y)=\sum_{x}\sum_{y}p(x,y)=log\frac{p(x,y)}{p(x)\cdotp(y)}\]

互信息、联合熵、边缘熵、条件熵之间有紧密的关系

\[\begin{aligned}MI(x,y)&=H(X)+H(Y)-H(X,Y)\\ &=H(X)-H(X|Y)\\ &=H(Y)-H(Y|X)\end{aligned}\]

互信息表示\(X\)中包含\(Y\)的信息的多少,也就是对称的\(Y\)中包含\(X\)的多少。若\(X\),\(Y\)独立则\(I(X,Y)=0\) ,若一一相关,则\(I(X,Y)=H(X)=H(Y)\)

3.4.2 归一化互信息(Normalized Mutual Information,NMI)

为了解决互信息对图像部分重叠区域的敏感性,NMI应运而生

\[NMI(X,Y)=\frac{H(X)+H(Y)}{H(X,Y)}\]

3.4.3 熵相关系数(Entropy Correlation Coefficient, ECC)

可以看作为另一种归一化信息方法

\[\begin{aligned}ECC&=\frac{2I(X,Y)}{H(X),+H(Y)}\\ &= 2-\frac{2}{NMI}\end{aligned}\]

3.4.4 互累计剩余熵(Cross Cumulative Residual Entropy,CRE)

和互信息类似,只不过这里的熵换成了累计剩余熵

\(CCRE(X,Y)=\epsilon(X)-E[\epsilon(Y|X)]\)

3.4.5 Alpha互信息(Alpha Mutual Information ,\(\alpha-MI\alpha-MI\))

顾名思义,根据\(\alpha\)熵得出\(\alpha\)

\[D_{\alpha}=\frac{1}{\alpha-1}log \sum_{x\in X} \sum_{y\in Y}p(x,y)^\alpha(p(x)p(y))^{1-\alpha}\]

3.4.6 相对熵(KL散度)

相对熵也称作为KL散度,可以衡量两个分布之间的差异,\(p,q\)\(x\)上的两个分布

\[D_{KL}(P||q)=\sum p(x)log\frac{p(x)}{q(x)}\]

3.4.7 交叉熵

交叉熵是KL散度的一部分

\[H(p,q)=\sum_{x\in X}p(x)log(q(x))\]

3.4.8 詹森香农散度(JS散度)

因为KL散度不对称,所以詹森提出了JS散度

\[JS(p||q)=\frac{1}{2}D_{KL}(p||\frac{p+q}{2})+\frac{1}{2}D_{KL}(q||\frac{p+q}{2}))\]

3.4.9 詹森瑞利散度

詹森香农散度与瑞利熵的结合

\[JR_{\alpha}^{\omega}(X,Y)=R_{\alpha}(Y)-\sum_{x\in X}p(x)R_{\alpha}(Y|x)\]

参考资料:

CATALOG
  1. 1. 1.图像编码原因:
  2. 2. 2.数据压缩
    1. 2.1. 2.1 压缩率和相对冗余度
    2. 2.2. 2.2 静态图像冗余类型
      1. 2.2.1. 2.2.1 编码冗余
      2. 2.2.2. 2.2.2 视觉(空间)冗余
      3. 2.2.3. 2.2.3 心理视觉冗余
  3. 3. 3.信息论相关
    1. 3.1. 3.1图像信息的度量
    2. 3.2. 3.2 信号源
    3. 3.3. 3.3 熵
      1. 3.3.1. 3.3.1 香农熵(Shannon Entropy)
      2. 3.3.2. 3.3.2 联合熵(Joint Entropy)
      3. 3.3.3. 3.3.3 条件熵 (Conditional Entrophy)
      4. 3.3.4. 3.3.4 累计剩余熵(Cumulative Residual Entropy, CRE)
      5. 3.3.5. 3.3.5 瑞利熵(RE)
    4. 3.4. 3.4 相似性度量
      1. 3.4.1. 3.4.1 互信息(Mutual Information, MI)
      2. 3.4.2. 3.4.2 归一化互信息(Normalized Mutual Information,NMI)
      3. 3.4.3. 3.4.3 熵相关系数(Entropy Correlation Coefficient, ECC)
      4. 3.4.4. 3.4.4 互累计剩余熵(Cross Cumulative Residual Entropy,CRE)
      5. 3.4.5. 3.4.5 Alpha互信息(Alpha Mutual Information ,\(\alpha-MI\alpha-MI\))
      6. 3.4.6. 3.4.6 相对熵(KL散度)
      7. 3.4.7. 3.4.7 交叉熵
      8. 3.4.8. 3.4.8 詹森香农散度(JS散度)
      9. 3.4.9. 3.4.9 詹森瑞利散度