浙江大学学报(工学版), 2019, 53(3): 512-521 doi: 10.3785/j.issn.1008-973X.2019.03.012

计算机技术

视觉特征深度融合的图像质量评价

丰明坤,, 施祥

Image quality assessment with deep pooling of visual feature

FENG Ming-kun,, SHI Xiang

收稿日期: 2018-07-16  

Received: 2018-07-16  

作者简介 About authors

丰明坤(1978—),男,讲师,从事信息智能感知处理研究.orcid.org/0000-0001-6716-8949.E-mail:fmk_78_62@163.com , E-mail:fmk_78_62@163.com

摘要

针对当前视觉感知特性研究和图像特征评价算法的不足,通过构建视觉多通道神经网络融合预测模型,提出一种视觉特征深度融合的图像质量评价方法. 首先,结合人类视觉系统特性设计直方图统计和奇异值分解2个互补视觉评价算法,进一步对图像各视觉通道的稀疏化梯度信息进行深度处理. 其次,构建BP神经网络融合模型,对各层视觉特征的多通道评价融合分别进行预测. 最后,对3层视觉特征评价从内层到外层逐层地进行深度自适应融合. 实验结果表明,所构建的融合模型有效提高了各种评价算法的指标水平,所提方法优于已有方法.

关键词: 图像质量评价 ; BP神经网络 ; 深度特征处理 ; 视觉感知特性 ; 融合预测模型

Abstract

The neural network pooling prediction model of visual multi-channel was constructed and an image quality assessment method based on deep pooling of visual feature was proposed, aiming at the shortcoming of current research on visual perception characteristic and image feature assessment algorithms. Firstly, two complementary visual assessment algorithms based on histogram statistics and singular value decomposition were designed with human visual system characteristics. Further, the sparse gradient information of every visual channel for one image was deeply processed. Secondly, the multi-channel assessment pooling of every visual feature layer was predicted, respectively, by constructing a pooling model of the BP neural network. Finally, the visual feature assessment of three layers was deep adaptively pooled from the inner layer to the outer layer. The experiment results show that the constructed pooling model effectively improves the index level of every assessment algorithm, and the proposed method achieves great advantage compared to the existing methods.

Keywords: image quality assessment ; BP neural network ; deep feature processing ; visual perception characteristic ; pooling prediction model

PDF (890KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

丰明坤, 施祥. 视觉特征深度融合的图像质量评价. 浙江大学学报(工学版)[J], 2019, 53(3): 512-521 doi:10.3785/j.issn.1008-973X.2019.03.012

FENG Ming-kun, SHI Xiang. Image quality assessment with deep pooling of visual feature. Journal of Zhejiang University(Engineering Science)[J], 2019, 53(3): 512-521 doi:10.3785/j.issn.1008-973X.2019.03.012

作为一种广泛应用的信号,图像在信息获取、传递和处理等各个领域均具有举足轻重的地位. 当前,随着云计算能力的提升和人工智能研究的兴起,基于图像终端处理平台的各种应用业务获得了前所未有的发展[1-5],然而,图像信号易受污染,因此,快速、自动的图像质量客观评价研究意义重大[6-9]. 近年来,将视觉感知特性融入图像特征处理的方法成为图像质量客观评价领域的研究热点.

显著失真(most apparent distortion,MAD)[10]方法融合了图像高低失真程度不同的视觉特性;特征相似度(feature similarity,FSIM)[11]方法联合了视觉相位一致性和图像梯度特征;视觉显著(visual saliency index,VSI)[12]方法联合了视觉显著感知模型和图像梯度特征;局部相关准则(local correlation metric,LCM)[13]提取了图像多视觉通道的本征特征信息;内在推导机制(internal generative mechanism,IGM)[14]基于大脑的自由能量场理论,通过信息感知最大化算法评价图像质量. 上述方法都考虑了图像的视觉多通道显著感知特性,并且联合了多种互补的图像特征进行质量评价,提高了部分评价指标的水平. 但是上述方法仍然存在一些问题,主要体现在:1)视觉特征处理仍有待进一步完善,例如,如何对图像的各视觉通道信息进行更深层次处理,使之更接近于人眼的主观判断;2)图像多特征联合的融合算法不尽合理,例如,一些方法采用了局部相乘的融合算法,而没有考虑人眼视觉对于不同图像特征评价处理的差异性[11-13],因此这些方法的评价结果难以兼顾各项指标水平的提升;3)人眼的视觉多通道主观特性对于不同的图像特征和不同的客观评价算法具有不同的主、客观映射关系,但现有方法均采用了统一的对比度敏感函数进行融合,实验结果表明,这种融合评价策略并没有显著改善评价结果的性能[4-5, 7, 10].

针对上述不足,本研究提出一种融合图像特征的深度感知处理和神经网络预测(deep perception processing and neural network prediction,DPPNNP)评价方法. DPPNNP方法首先提取图像的有效视觉梯度特征显著图,然后分别基于直方图统计和奇异值分解互补评价算法对各视觉通道的梯度信息进行二次深度处理,并将图像梯度特征、多通道视觉梯度特征以及二次深度信息处理的互补视觉特征从内到外逐层地进行深度自适应融合. 最后,DPPNNP方法通过构建BP神经网络图像质量视觉多通道融合预测模型克服视觉多通道主观感知特性对于不同特征和不同算法的差异不确定性.

1. 融合图像特征的深度感知处理和神经网络预测评价方法原理

DPPNNP方法原理可用图1描述,主要包括:1)基于高斯核卷积算法[11-12]对原始图像进行滤波处理;2)采用Log-Gabor小波[10-11]对图像进行处理,分别获得参考图像的多通道视图 ${{R}}^{\rm V}_{{(}s,o{)}}(i,j)$ 和失真图像的多通道视图 ${{D}}^{\rm V}_{{(}s,o{)}}(i,j)$so分别为Log-Gabor小波通道的尺度因子和方向因子, $(i,j)$ 为图像的像素点;3)基于恰可识别阈值原理[14]提出改进的视觉多通道恰可识别阈值算法并将其用于 ${{R}}^{\rm V}_{{(}s,o{)}}(i,j)$${{D}}^{\rm V}_{{(}s,o{)}}(i,j)$ 的稀疏化处理;4)利用梯度算法[11]分别提取 ${{R}}^{\rm V}_{{(}s,o{)}}(i,j)$${{D}}^{\rm V}_{{(}s,o{)}}(i,j)$ 的视觉梯度特征视图 ${{R}}^{\rm G}_{{(}s,o{)}}(i,j)$${{D}}^{\rm G}_{{(}s,o{)}}(i,j)$,并基于梯度特征相似度(gradient similarity mechanism,GSM)算法计算失真图像质量的视觉多通道梯度结构相似度评价 $Q{(}s{\rm{,}}o{)}$ 分值;5)提出视觉多通道梯度-直方图深度评价算法和视觉多通道梯度-奇异值深度评价算法,并分别计算失真图像质量的视觉多通道梯度直方图评价 $E{(}s{\rm{,}}o{)}$ 分值和视觉多通道梯度奇异值评价 $F{(}s{\rm{,}}o{)}$ 分值;6)构建BP神经网络多通道融合预测模型,通过训练学习,分别获得 $E{(}s{\rm{,}}o{)}$$F{(}s{\rm{,}}o{)}$$Q{(}s{\rm{,}}o{)}$ 多通道融合的预测结果分值EFQ;7)基于回归函数构造自适应算法,并将EFQK评价进行深度融合,最终获得失真图像质量的客观评价结果DPPNNP分值.

图 1

图 1   融合图像特征的深度感知处理和神经网络预测(DPPNNP)方法原理图

Fig.1   Schematic diagram of deep perception processing and neural network prediction (DPPNNP) method with fusion of image features


2. 深度视觉信息特征处理及评价算法

2.1. 视觉多通道自适应恰可识别阈值

实践表明,人眼视觉对于图像亮度的感知具有一定的局限性,可以用恰可识别失真(just noticeable distortion,JND)阈值来描述该特性,即人眼识别不出低于该值的图像亮度. 已有文献研究了对比度敏感特性、亮度感知非线性以及空域掩盖效应等,并相应地提出了变换域的JND计算模型,但这些模型都具有各自的局限性[15-16]. 本研究基于图像的梯度特征信息进行质量评价,就是考虑到图像边缘轮廓隐藏的噪声相对较少,对该区域进行JND阈值处理往往能够获得较好的效果. 文献[14]首次考虑了视觉心理的作用机制,提出了基于自由能量准则(free energy principle,FEP)的结构自相似性JND模型,该模型基于信息最大化的自回归方程将图像分解为有序内容和无序内容两部分,分别提取这两部分的JND阈值并将其融合,获得最终的阈值TJND[14]如下:

${T_{{\rm{JND}}}} = {T_{{\rm{JNDP}}}} + {T_{{\rm{JNDD}}}} - C \cdot {\rm{min}}\, \left\{ {{T_{{\rm{JNDP}}}}{\rm{,}}\;{T_{{\rm{JNDD}}}}} \right\}.$

式中: ${T_{{\rm{JNDP}}}}$ 为有序内容阈值, ${T_{{\rm{JNDD}}}}$ 为无序内容阈值,C为去除亮度适应性和对比度掩盖二者重叠部分的参数,一般取值为C=0.3.

图像经过Log-Gabor小波多通道分解后,考虑到人眼视觉的对比度敏感特性,本研究将TJND改进如下:

$ {T_{{\rm{JND}}}}{(}s{\rm{,}}o{)} = {T_{{\rm{JND}}}} \cdot {T_{{\rm{CSF}}}}{(}s{\rm{,}}o{)}. $

式中: ${T_{{\rm{CSF}}}}{(}s,o{)}$ 为对比度敏感函数[10].

进一步考虑视觉感受野的中央凹特性[17-18],将 ${T_{{\rm{JND}}}}{(}s,o{)}$ 改进如下:

${{{T}}_{{\rm{JND}}}}_{(s,o)}(i,j) = {T_{{\rm{JND}}}}(s,o) \cdot {{\tau}} (i,j).$

式中: ${{\tau}} (i,j)$ 为中央凹视觉因子[18]. 基于 ${{{T}}_{{\rm{JND}}}}_{(s,o)}(i,j)$,对各视觉通道的图像信息 ${{{V}}_{{(}s,o{)}}}{(}i,j{)}$ 进行稀疏化处理,算法如下:

${{{V}}_{(s,o)}}{(}i,j{)} = \\ \left\{ {\begin{array}{*{20}{l}} {{{{V}}_{{(}s,o{)}}}{(}i,j{\rm{),}}}&{{{{V}}_{{(}s,o{)}}}{(}i,j{)} > {{{T}}_{{\rm{JND}}}}_{{(}s,o{)}}{(}i,j{)}}; \\ { 0},&{{{{V}}_{{(}s,o{)}}}{(}i,j{)} < {{{T}}_{{\rm{JND}}}}_{{(}s,o{)}}{(}i,j{)}}. \end{array}} \right.$

2.2. 视觉多通道梯度特征信息深度处理评价算法

梯度特征较好地反映了图像信息的空间结构分布,梯度特征相似度评价[19]和视觉多通道梯度特征相似度评价[16]均能有效地捕捉图像的边缘轮廓和纹理细节的失真信息. 然而,梯度视图相对于自然图像具有空域信息变化更为剧烈的趋势,常常会加剧视觉掩盖效应,并且梯度特征不能有效反映图像的连片块状内部失真. 实验结果表明,梯度特征相似度和视觉梯度特征相似度对于JPEG类型失真图像的评价性能均出现了明显下降. 作为互补,直方图特征可以准确地统计图像的像素信息,而奇异分解特征值则能有效地提取图像的能量信息,两者对于JPEG类型失真图像的评价均具有较好的性能[16, 20],因此,本研究将两者结合起来,并对失真图像的视觉多通道梯度特征进行二次深度信息评价处理.

2.2.1. 基于直方图评价的深度视觉梯度信息处理

基于直方图统计评价算法[21]和视觉多通道直方图统计评价算法[20],提出视觉多通道梯度-直方图深度信息处理评价算法 $E{(}s{\rm{,}}o{)}$. $E{(}s{\rm{,}}o{)}$包括阈值滤波和误差评价. 将对比度敏感函数 ${T_{{\rm{CSF}}}}$ ${(}s,o{)}$ 融入 $E{(}s{\rm{,}}o{)}$ 阈值滤波,所提视觉梯度-直方图灰度阈值函数 ${T_{\rm{G}}}(s)$ 和对比度阈值函数 ${T_{{\rm{HG}}}}(s)$ [20]分别如下:

$ \begin{split} {T_{\rm{G}}}(s) &= \displaystyle\frac{{\displaystyle\sum\nolimits_{o = 1}^M \,{{T_{{\rm{CSF}}}}({s_{\max }},o)} }}{{\displaystyle\sum\nolimits_{o = 1}^M \,{{T_{{\rm{CSF}}}}(s,o)} }} \times \\ &\frac{a}{M}\sum\nolimits_{i = 1}^M \,{{{\left( {\frac{1}{{{N_i} - 1}}\sum\nolimits_{j = 1}^{{N_i}} \,{{{\left( {{G_{i,j}} - {{\mathop G\limits^\_ }_i}} \right)}^2}} } \right)}^{1/2}}} . \end{split} $

$ \begin{split} {T_{{\rm{HG}}}}(s) &= \displaystyle\frac{{\displaystyle\sum\nolimits_{o = 1}^M \,{{T_{{\rm{CSF}}}}({s_{\max }},o)} }}{{\displaystyle\sum\nolimits_{o = 1}^M \,{{T_{{\rm{CSF}}}}(s,o)} }} \times \\ &\frac{a}{M}\sum\nolimits_{i = 1}^M \,{{{\left\{ {\frac{1}{{{N_i} - 1}}\sum\nolimits_{j = 1}^{{N_i}} \,{{{\left[ {{{\sigma ({{{G}}_{i,j}}})} - {{\mathop \sigma \limits^\_ }({G_i}}}) \right]}^2}} } \right\}}^{1/2}}}. \end{split} $

式中: ${G_{i,j}}$ 为第i个视觉方向通道中的第j个系数, ${\mathop G\limits^\_ {_i}}$${G_{i,j}}$ 的平均值, ${\sigma ({G_{i,j}}})$${G_{i,j}}$ 的方差, ${\mathop \sigma \limits^\_ ({{G_i}}})$${\sigma ({G_{i,j}}})$ 的平均值, ${s_{\max }}$ 为最深一层小波尺度, ${N_i}$${G_{i,j}}$${\sigma ({G_{i,j}}})$ 的数量, $a$ 代表调节图像失真类型的参数[20].

视觉通道 $(s,o)$ 的灰度阈值 ${T_{\rm{G}}}(s,o)$ 和对比度阈值 ${T_{\rm{H}}}_{\rm{G}}(s,o)$ 分别为

${T_{\rm{G}}}(s,o) = \frac{{{T_{\rm{G}}}(s)}}{{[0.15{\rm{cos}}\;(4o) + 0.85]}},$

${T_{{\rm{HG}}}}(s,o) = \frac{{{T_{{\rm{HG}}}}(s)}}{{[0.15{\rm{cos}}\;(4o) + 0.85]}}.$

式中: $o \in [ - {\text{π ,π }}]$$E(s,o)$ 误差评价包括灰度误差评价 ${E_{{\rm{H,}}L}}{(}s{\rm{,}}o{)}$ 和对比度误差评价 ${E_{{\rm{C,}}L}}{(}s{\rm{,}}o{)}$

${E_{{\rm{H,}}L}}{(}s{\rm{,}}o{)} = \left| {{\sigma _{{\rm{H,}}L}}{(}s{\rm{,}}o{)} - {\sigma _{{\rm{H,mid}}}}{(}s{\rm{,}}o{)}} \right|,$

${E_{{\rm{C,}}L}}{(}s{\rm{,}}o{)} = \left| {{\sigma _{{\rm{C}},L}}{(}s{\rm{,}}o{)} - {\sigma _{{\rm{C,mid}}}}{(}s{\rm{,}}o{)}} \right|.$

其中, $L$${G_{i,j}}$ 的分块序号, ${\sigma _{{\rm{H,}}L}}{(}s{\rm{,}}o{)}$ 为灰度均方误差, ${\sigma _{{\rm{C}},L}}{(}s{\rm{,}}o{)}$ 为对比度均方误差, ${\sigma _{{\rm{H,mid}}}}{(}s{\rm{,}}o{)}$${\sigma _{{\rm{H,}}L}}{(}s{\rm{,}}o{)}$ 的中间值, ${\sigma _{{\rm{C,mid}}}}{(}s{\rm{,}}o{)}$${\sigma _{{\rm{C}},L}}{(}s{\rm{,}}o{)}$ 的中间值,其定义详见文献[20].

2.2.2. 基于奇异值分解评价的深度视觉梯度信息处理

基于奇异值分解评价算法[22]和视觉多通道奇异值分解评价算法[23],本研究提出的视觉多通道梯度-奇异值分解深度信息处理评价 $F(s,o)$ 算法如下:

$F{(}s,o{)} =\frac{1}{Z} \sum\nolimits_{L = 1}^Z \,{\left| {{D_L}(s,o) - {D_{{\rm{mid}}}}(s,o)} \right|} .$

式中: $Z = (n \times n)/(k \times k)$$n \times n$$k \times k$ 为视觉通道 $(s,o)$ 的梯度视图 ${{{G}}_{(s,o)}}(i,j)$${{{G}}_{(s,o)}}(i,j)$ 分块大小, ${D_L}(s,o)$ 为通道 $(s,o)$ 内子块 $L$ 的奇异特征值均方误差,

$ \left. \begin{split} &{D_L}(s,o) = \frac{1}{{N - 1}}{\left( {\sum\nolimits_{i = 1}^N \,{{{\left( {{p_i}(s,o) - \mathop {{p_i}(s,o)}\limits^ \wedge } \right)}^2}} } \right)^{1/2}},\\ &{D_{{\rm{mid}}}}(s,o) = {\rm mean}\,\left[ {{D_L}(s,o)} \right]. \end{split}\right\} $

其中, ${p_i}(s,o)$ 为参考图像视觉通道 $(s,o)$ 梯度奇异特征值, ${\mathop p\limits^ \wedge {_i}}(s,o)$ 为失真图像视觉通道 $(s,o)$ 梯度奇异特征值,N为奇异特征值的数量.

${{{s}}_i}(s,o)$$s_i'(s,o)$ 分别表示参考图像和失真图像视觉通道 $(s,o)$ 的稀疏奇异值特征,则由式(12)可得该通道的局部能量失真度评价:

${D_L}(s,o) = \frac{1}{{N - 1}}{\left( {\sum\nolimits_{i = 1}^N {{{\left( {{s_i}(s,o) - s_i'(s,o)} \right)}^2}} } \right)^{1/2}}.$

2.2.3. 多层深度视觉信息特征评价结果的自适应融合

基于回归函数从内层到外层逐层地融合各层评价,最终获得失真图像质量的评价结果,融合第3层E评价和F评价,获得EF评价结果:

${\rm{EF}} = {\left( E \right)^{1 - {\lambda _1}}} \cdot {\left( F \right)^{{\lambda _1}}}.$

式中: ${\lambda _{\rm{1}}} = [1 + {\gamma _{1{\rm{1}}}} \cdot {F^{{\gamma _{{\rm{12}}}}}}]^{-1}$,参数 ${\gamma _{11}}$${\gamma _{12}}$ 根据经验和实验训练取值,详见第4.2节的实验部分.

融合第2层EF评价和Q评价,获得EFQ评价结果:

${\rm{EFQ}} = {\left( {{\rm{EF}}} \right)^{1 - {\lambda _2}}} \cdot {\left( Q \right)^{{\lambda _2}}}.$

式中: ${\lambda _{\rm{2}}} = [1 + {\gamma _{{\rm{2}}1}} \cdot {Q^{{\gamma _{{\rm{22}}}}}}]^{-1}$,参数 ${\gamma _{21}}$${\gamma _{22}}$ 根据经验和实验训练取值,详见第4.2节的实验部分.

融合第1层EFQ评价和K评价,最终获得失真图像质量的客观评价结果:

${\rm{DPPNNP}} = {\left( {{\rm{EFQ}}} \right)^{1 - {\lambda _3}}} \cdot K_{\rm O}^{{\lambda _3}}.$

式中: ${\lambda _3} = 1/(1 + {\gamma _{31}} \cdot K_{\rm O}^{{\gamma _{32}}})$,参数 ${\gamma _{31}}$${\gamma _{32}}$ 根据经验和实验训练取值,参见表2$K_{\rm O}^{}$K的相似度等价转换,两者关系如下:

表 2   提出的DPPNNP与其他方法在LIVE数据库上的评价结果比较

Tab.2  Assessment results comparison between proposed DPPNNP and other methods on database LIVE

失真类型参数设置 指标 MSSIM IFC VIF GSM FSIM VSI SVD IGM MAD DPPNNP
JPEG2000
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = 0.{\rm{4}}}&{{\gamma _{{\rm{12}}}} = 0.{0}1} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.02}}}&{{\gamma _{{\rm{22}}}} = 0.0{01}} \\ {{\gamma _{{\rm{31}}}} = {\rm{40}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = 0.{\rm{00}}1} \end{array}$
RMSE 4.414 2 4.696 1 4.714 8 4.179 3 4.408 6 5.496 8 4.445 8 3.310 5 3.059 1 3.873 1
PLCC 0.983 3 0.981 1 0.980 9 0.985 1 0.983 4 0.974 0 0.983 1 0.990 7 0.992 0 0.987 2
SROCC 0.984 5 0.964 1 0.978 7 0.986 9 0.988 4 0.969 8 0.981 4 0.986 6 0.987 1 0.984 1
JPEG
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = 0.{\rm{3}}}&{{\gamma _{{\rm{12}}}} = 0.1} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.02}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.001}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{10}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = 0.{\rm{4}}} \end{array}$
RMSE 3.600 4 3.251 14 2.802 7 3.909 6 3.861 5 3.941 4 3.419 4 2.336 6 4.532 8 1.936 9
PLCC 0.989 3 0.991 3 0.993 6 0.987 4 0.987 7 0.987 2 0.990 4 0.995 5 0.983 0 0.996 9
SROCC 0.977 9 0.953 8 0.965 0 0.965 0 0.980 1 0.954 1 0.953 6 0.976 0 0.967 1 0.975 8
WN
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = {0}{\rm{.4}}}&{{\gamma _{{\rm{12}}}} = 0.{01}} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.04}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.01}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{40}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = {0}{\rm{.000\;1}}} \end{array}$
RMSE 2.866 7 3.078 6 4.131 3 3.307 9 3.933 6 3.335 2 2.374 2 1.659 0 3.124 3 1.260 6
PLCC 0.992 8 0.991 7 0.985 1 0.990 5 0.986 5 0.990 3 0.995 1 0.997 6 0.991 5 0.998 6
SROCC 0.984 7 0.957 7 0.966 6 0.987 9 0.976 9 0.974 7 0.994 0 0.994 5 0.991 3 0.993 3
Gblur
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = {0}{\rm{.4}}}&{{\gamma _{{\rm{12}}}} = 0.{01}} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.04}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.01}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{40}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = {0}{\rm{.000\;1}}} \end{array}$
RMSE 5.454 9 3.859 5 7.503 8 5.505 4 4.566 3 5.523 8 6.776 2 3.629 6 3.893 0 3.135 4
PLCC 0.976 3 0.988 2 0.954 6 0.975 8 0.983 4 0.975 7 0.963 1 0.989 6 0.988 0 0.992 2
SROCC 0.989 2 0.969 0 0.933 4 0.987 9 0.991 6 0.967 9 0.963 5 0.988 8 0.987 7 0.987 7
Fastfading
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = 0.{\rm{3}}}&{{\gamma _{{\rm{12}}}} = 0.{\rm{1}}} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.02}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.001}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{40}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = 0.{\rm{00}}1} \end{array}$
RMSE 4.818 3 5.117 4 4.125 8 5.078 8 5.258 1 5.553 9 6.184 3 5.086 5 4.192 0 2.838 3
PLCC 0.979 7 0.977 1 0.985 2 0.977 5 0.975 8 0.973 0 0.966 4 0.977 4 0.984 7 0.993 6
SROCC 0.984 1 0.957 0 0.969 5 0.982 7 0.981 5 0.964 4 0.969 9 0.972 0 0.985 0 0.990 7
失真类型总和
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = {0}{\rm{.28}}}&{{\gamma _{{\rm{12}}}} = 0.{\rm{3}}} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.4}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.001}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{6}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = 0.{\rm{08}}} \end{array}$
RMSE 6.231 9 5.371 8 7.469 2 6.103 1 5.784 3 6.597 9 6.279 0 4.722 0 5.517 2 4.132 4
PLCC 0.967 3 0.975 8 0.952 6 0.968 6 0.971 9 0.963 2 0.966 8 00.981 3 0.974 4 0.987 5
SROCC 0.965 1 0.955 2 0.920 6 0.971 8 0.977 8 0.949 1 0.967 2 0.974 1 0.977 3 0.981 5

新窗口打开| 下载CSV


${K_{\rm O}} = {\rm{100}} \times \left[ {{\rm{max}}\left( K \right){\rm{ - }}K} \right].$

3. 视觉多通道BP神经网络图像质量预测模型

人类视觉系统(human visual system,HVS)能够以不同角度、不同分辨率的多通道系统提取图像的不同层次信息,在图像质量评价(image quality assessment,IQA)研究领域中,国际视频质量专家组(video quality experts group,VQEG)统一用对比度敏感函数(contrast sensitivity function,CSF)来表示HVS的这种特性. 然而,较多的实验表明,对于同一帧失真图像的同一层次特征,不同IAQ方法往往具有不同的评价指标水平,并且随着图像失真类型的不同,即使同一IQA方法也具有不同的评价性能,因此,统一使用CSF函数,降低了各种IQA方法的性能. 目前,关于上述问题的研究,无论是在理论上还是在实验上,IQA领域都缺乏有效成果.

近些年来,随着研究的深入,神经系统已经在信号处理、模式识别等多个人工智能领域取得了非凡的成就. 其中,反向传播BP神经网络技术在图像处理领域获得了重要的应用. 理论上,一个3层以上的BP神经网能够以任意精度逼近一个非线性函数,并且对外界激励具有自适应学习的能力,从而具备了非常强大的分类识别能力,BP的出现解决了神经网络发展史上的非线性分类难题. 基于BP神经网在图像处理领域优越的分类识别能力,本研究将BP神经网用于解决CSF函数面临的难题,提出BP神经网络图像质量视觉多通道融合预测模型,该模型原理如图2所示. 该模型基于不同类型失真图像和不同IQA评价算法分别进行训练和测试,将数据库中的失真图像数量对半分配,一半作为训练集,一半作为测试集.

图 2

图 2   BP神经网络多通道评价融合预测模型

Fig.2   Predicting model of multi-channel assessment pooling based on BP neural network


根据经验,该模型设置为3层BP网络,输入层神经元数量等于视觉多通道数量 ${\rm{s}} \times o = {\rm{5}} \times {\rm{4}} = {\rm{20}}$,隐藏层神经元的数量一般取10~30,输出层神经元数量为1,其输出即IQA客观评价分值. 基于Matlab2014版本构造BP神经网络图像质量视觉多通道融合预测模型,通过实验对比,构造的BP神经网络模型结构语法为:net=newff(minmax(input),[20 1],{'logsig' 'purelin'},'traingdx'),隐含层的神经元数量为20,隐含层的激活函数为“logsig”,输出层的激活函数为“purelin”,训练函数为“traingdx”,权值/阈值学习函数默认为“learngdm”,损失函数默认为“mse”. 训练的2个终止条件如下:1)训练输出误差 $\varepsilon < 0.01$ (由BP神经网络的训练输出和DMOS分值精度决定);2)训练迭代次 ${{s}} = {\rm{200}}$ (根据经验和客观评价算法IQA决定). 训练阶段首先选取训练集中的失真图像,以选定的图像质量客观算法IQA的多通道评价结果IQA(s,o)作为BP神经网络的多维输入,以对应失真图像的主观评价结果分值DMOS作为训练目标,使BP网络进行有监督的学习,一旦达到训练终止条件即可进入预测阶段. 预测阶段选取测试集中的失真图像,以训练阶段所选定的图像质量客观算法IQA的多通道评价结果IQA(s,o)作为BP神经网络的多维输入,依据训练学习结果的权重和阈值参数,BP神经网络的输出即为所选IQA客观算法的融合预测评价结果. 实验时依次选取 $E{(}s,o{)}$$F{(}s,o{)}$$Q{(}s,o{)}$ 三种客观评价算法进行训练学习,分别获得基于BP神经网络预测模型对应的融合评价结果EFQ分值.

4. 实验结果分析

4.1. BP神经网络图像质量预测结果分析

实验在VQEG提供的LIVE(database release2)数据库进行,该数据提供了参考图像、5类主要失真图像以及不同失真程度图像的差别均值主观分(difference mean opinion score,DMOS)等较为完整的数据集. 本部分实验针对LIVE数据库的一半测试集失真图像,测试所提BP神经网络图像质量模型和CSF函数融合模型在E、F和Q三种评价方法上的评价指标,并对各项测试的指标水平进行比较,结果如表1所示. 性能测试选用VQEG建议的RMSE、PLCC和SROCC指标,这3个指标均反映了图像质量客观评价方法和人眼主观测试结果的关系. 其中,RMSE表示主客观结果之间的误差,RMSE值越大说明客观方法性能越差,而PLCC和SROCC则反映了主客观结果之间的相关性系数,PLCC和SROCC值越大,说明客观方法性能越好. 本研究所提BP模型获在E、F和Q三种评价方法上,对于5种不同的图像失真类型,其RMSE、PLCC和SROCC指标水平均较高,且大幅度领先于CSF函数融合的评价结果. CSF函数融合仅仅针对F和Q两种评价方法,在其中某一类型失真图像评价上和BP预测模型具有持平的指标水平. 表1的实验结果表明:BP神经预测网络在视觉多通道图像质量评价方面具有非常理想的效果.

表 1   BP神经网络预测结果和CSF融合结果比较

Tab.1  Results comparison of BP neural network predicting vs CSF pooling

失真类型 指标 E F Q
BP模型 CSF函数 BP模型 CSF函数 BP模型 CSF函数
JPEG2000 RMSE 5.260 7 11.617 2 4.554 0 5.308 6 4.063 1 4.362 6
PLCC 0.976 2 0.878 0 0.982 2 0.975 8 0.985 9 0.983 7
SROCC 0.960 9 0.611 0 0.972 7 0.967 9 0.983 3 0.986 3
JPEG RMSE 3.304 9 9.356 4 2.893 8 3.495 9 3.567 8 3.544 2
PLCC 0.991 0 0.926 5 0.993 1 0.990 0 0.986 7 0.989 7
SROCC 0.952 5 0.736 9 0.964 5 0.931 0 0.977 2 0.976 0
WN RMSE 3.366 2 10.333 7 3.349 8 3.295 3 1.331 4 2.427 7
PLCC 0.990 1 0.902 6 0.990 2 0.990 5 0.998 5 0.994 9
SROCC 0.975 1 0.683 9 0.986 0 0.983 5 0.992 8 0.993 2
gblur RMSE 6.173 2 6.982 4 5.527 6 5.513 4 3.013 2 5.196 6
PLCC 0.969 5 0.960 8 0.975 6 0.975 8 0.992 8 0.978 5
SROCC 0.953 1 0.958 3 0.983 4 0.975 8 0.988 0 0.987 7
Fastfading RMSE 6.916 8 11.155 8 6.241 0 7.739 9 3.731 1 6.591 0
PLCC 0.957 8 0.886 0 0.965 8 0.946 8 0.987 9 0.961 7
SROCC 0.931 8 0.741 2 0.960 7 0.923 2 0.986 3 0.956 6

新窗口打开| 下载CSV


4.2. DPPNNP方法结果分析

实验比较了DPPNNP方法和其他主流视觉感知方法的性能,LIVE(database release2)数据库下的结果如表2所示. 表中方法大体分为3类,包括了最近的研究成果. 第一类是基于图像视觉特征处理或视觉显著模型的评价方法,例如多尺度结构相似度(multiscale structural similarity, MSSIM)[24]、梯度相似度GSM)、特征结构相似度(FSIM)和视觉显著(VSI);第二类是基于图像视觉信息处理的评价方法,结果信息保真度(information fidelity criterion, IFC)[25]和视觉信息保真度(visual information fideliy, VIF)[26];第三类是基于视觉大脑内推机制和处理算法融合的评价方法,例如IGM和显著失真(MAD). 从表2的实验结果可知:1)各种方法的RMSE和PLCC指标对于WN和JPEG两类失真图像的评价保持了较高的水平(RMSE<3.933 6,PLCC>0.986 5),但是SROCC指标水平有待提高(SROCC>0.953 6). 2)对于其他失真类型图像的评价,不同方法的各项指标水平相对互有高低. 其中,IGM和MAD方法在JPEG2000和gblur两类失真评价上具有一定的优势,但问题是评价性能不稳定,例如,MAD在JPEG和fastfading两类失真评价上,各项指标水平均出现了大幅的下降;同样,IGM方法对于不同类型失真评价,其各项指标水平均变动较大. IGM和MAD方法的稳定性较低说明将视觉大脑的最新研究成果用于图像质量评价,其理论依据和建模算法都有待进一步的深入研究. 3)结合视觉特征处理的评价方法,对于不同图像失真类型都具有相对稳定的评价性能,例如MSSIM、FSIM、VSI和IFC等,但问题是其各项指标水平都有待提高,主要是因为该类方法对视觉特征的处理不够深入,采用的主观刺激-响应模型过于单一. 4)整体上,在不对图像失真类型进行区分或者图像失真机理不明确的情况下,多重视觉特征融合方法(例如:FSIM)或视觉特性与视觉心理互补方法(例如:IGM,IFC,MAD)部分评价指标具有一定的优势,但距离人眼主观测试结果仍有较大的误差.表2的结果反映出所提DPPNNP方法的优点:1)DPPNNP方法对于图像不同失真类型的评价,各项指标均具有非常高的水平(RMSE<3.873 1,PLCC>0.987 2,SROCC>0.975 8),且明显超越了上述3种方法. 2)DPPNNP方法的评价性能相对稳定,没有出现由于图像失真类型不同而造成指标水平明显下降的现象. 相对于IGM和MAD类方法所采用的尚不确定的视觉心理推导模型,DPPNNP借助了BP神经网络强大的推导分析能力和非线性数值逼近能力,从而能更有效地模拟视觉心理的复杂作用机制. 3)针对现有视觉特征处理评价方法指标水平不高的问题,DPPNNP方法不仅采用了深度视觉特征处理算法E评价和F评价,而且自适应地融合了多重视觉感知的特征评价结果. 综上,所提DPPNNP方法不仅克服了现有方法的各种缺陷,而且整体评价性能(RMSE=4.132 4,PLCC=0.987 5,SROCC=0.981 5)也明显超越了现有方法.

为进一步验证DPPNNP方法的性能,增加CSIQ和tid2013两个数据库的整体实验,结果如表3所示. 可知VSI和DPPNNP方法的RMSE、PLCC和SROCC指标水平总体上大幅领先于其他方法,而DPPNNP方法在CSIQ数据库上的3个指标水平全面优于VSI方法,在tid2013数据库上仅SROCC指标水平低于VSI方法,但仍优于其他方法.

表 3   所提DPPNNP与其他方法在CSIQ和tid2013数据库的评价结果比较

Tab.3  Assessment results comparison between proposed DPPNNP and other methods on databases CSIQ and tid2013

数据库名称及参数设置 指标 MSSIM IFC VIF GSM FSIM VSI SVD IGM MAD DPPNNP
CSIQ
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = 0.{\rm{001}}}&{{\gamma _{{\rm{12}}}} = 0.1} \\ {{\gamma _{{\rm{21}}}} = {0}{\rm{.3}}}&{{\gamma _{{\rm{22}}}} = {\rm{4}}{\rm{.0}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{100}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = {\rm{1}}{\rm{.8}}} \end{array}$
RMSE 0.118 0 0.179 9 0.142 4 0.172 1 0.110 1 0.099 0 0.170 7 0.099 6 0.084 1 0.071 8
PLCC 0.879 0 0.738 9 0.845 9 0.764 6 0.911 1 0.928 7 0.768 9 0.928 7 0.949 2 0.963 2
SROCC 0.913 0 0.767 6 0.922 1 0.908 9 0.928 9 0.945 3 0.753 0 0.941 1 0.937 2 0.958 8
tid2013
$\begin{array}{*{20}{c}} {{\gamma _{{\rm{11}}}} = 0.{\rm{28}}}&{{\gamma _{{\rm{12}}}} = 0.{\rm{8}}} \\ {{\gamma _{{\rm{21}}}} = {\rm{1}}{\rm{.4}}}&{{\gamma _{{\rm{22}}}} = {0}{\rm{.000\;1}}} \\ {{\gamma _{{\rm{31}}}} = {\rm{4}}{\rm{.0}}}&{{\gamma _{{\rm{32}}}} = {\rm{100}}{\rm{.0}}} \end{array}$
RMSE 0.766 9 1.217 1 0.974 9 0.971 7 0.710 8 0.678 1 0.933 0 0.692 8 0.704 2 0.636 0
PLCC 0.782 3 0.150 5 0.610 7 0.802 4 0.816 5 0.834 6 0.652 5 0.826 6 0.820 3 0.856 2
SROCC 0.788 8 0.513 9 0.609 5 0.796 6 0.796 8 0.889 0 0.632 7 0.802 6 0.750 7 0.802 9

新窗口打开| 下载CSV


图3(a)~(h)所示分别表示MSSIM、IFC、VIF、GSM、FSIM、VSI、IGM和DPPNNP方法基于LIVE数据库的主客观评价结果的散点分布图. 通过比较可知,DPPNNP方法的客观评价结果散点图均匀分布在[0,80]较大范围的区间内,具有最高的客观评价分别率和主、客观一致水平.

图 3

图 3   不同方法散点分布图

Fig.3   Scatter distribution plot of various methods


4.3. 算法时间复杂度测试

为了比较各种图像质量客观评价算法的计算复杂度,表4列出了各种算法基于tid2013数据库的整体评价时间t. 硬件基于 i7-7500U CPU@2.70 GHz与8 G内存的L470便携式PC,软件基于Windows10与MATLAB R2014a. 基于时间复杂度的考虑,用于比较的算法基本可以分为图像特征处理(MSSIM、SVD)、视觉特征处理(VSI、FSIM、MAD)、图像信息处理(IFC、VIF)和视觉神经处理(IGM、DPPNNP)四类. 受限于目前对于人类视觉系统原理认知上的不足,视觉神经处理类算法一直是该领域的一个研究难点,所提DPPNNP算法的运行时间为211 27 s,同类IGM算法的运行时间为39 194 s,DPPNNP算法比IGM算法节省了54%的时间资源。综合考虑各项评价指标水平,认为DPPNNP算法的性能优于IGM算法.

表 4   不同图像质量评价方法的时间复杂度测试结果比较

Tab.4  Test results comparisons of time complexity for different image quality assessment methods

评价方法 t/s 评价方法 t/s
MSSIM 171 IFC 2 020
SVD 238 VIF 2 083
VSI 484 IGM 39 194
FSIM 653 DPPNNP 21 127
MAD 3 128

新窗口打开| 下载CSV


5. 结 语

针对目前视觉特征感知处理和视觉心理推导在图像质量评价研究领域中存在的问题,通过将BP神经网络融入视觉系统,提出了一种视觉特征深度自适应融合的图像质量评价方法. 为了充分挖掘图像特征评价的有效性,所提方法利用了视觉感知中的确定特性,基于直方图统计和奇异值分解互补评价算法对各视觉通道的梯度信息进行了二次深度处理. 针对视觉多通道主观感知对于不同特征客观评价算法的差异不确定性,所提方法构建了BP神经网络图像质量视觉多通道融合模型,将不同视觉特征评价算法的各个通道评价结果输入神经网络并进行有监督的学习训练,BP神经网的融合预测输出有效地提高了各种算法的各项评价指标水平. 在客观评价过程中,所提方法将图像梯度特征、图像多通道视觉梯度特征以及二次深度信息处理的互补视觉特征从内到外逐层地进行了自适应融合. 实验结果表明,相对现有方法,所提方法的各项评价指标水平均具有较大的优势,而且对于不同类型失真图像的评价,各项评价指标都保持了较高的稳定水平.

参考文献

GUO Y C, HAO Y T, YU M

Image retargeting quality assessment based on content deformation measurement

[J]. Signal Processing: Image Communication, 2018, 67 (6): 171- 181

[本文引用: 1]

CHEN Z B, LIN J X, LIAO N, et al

Full reference quality assessment for image retargeting based on natural scene statistics modeling and bi-directional saliency similarity

[J]. IEEE Transactions on Image Processing, 2017, 26 (11): 5138- 5148

DOI:10.1109/TIP.2017.2736422     

ZHANG Y CH, KING N N, MA L, et al

Objective quality assessment of image retargeting by incorporating fidelity measures and inconsistency detection

[J]. IEEE Transactions on Image Processing, 2017, 26 (11): 5980- 5993

ZHANG Y B, LIN W S, LI Q H, et al

Multiple-level feature-based measure for retargeted image quality

[J]. IEEE Transactions on Image Processing, 2018, 27 (1): 451- 463

DOI:10.1109/TIP.2017.2761556      [本文引用: 1]

丰明坤, 王中鹏, 叶绿

视觉稀疏化多通道多特征自适应的图像评价

[J]. 仪器仪表学报, 2016, 37 (3): 667- 674

DOI:10.3969/j.issn.0254-3087.2016.03.025      [本文引用: 2]

FENG Ming-kun, WANG ZHong-peng, YE Lv

Image quality assessment based on adaptive sparse visual multi-channel and multi-feature pooling

[J]. Chinese Journal of Scientific Instrument, 2016, 37 (3): 667- 674

DOI:10.3969/j.issn.0254-3087.2016.03.025      [本文引用: 2]

BAMPIS C G, GUPTA P, SOUNDARARAJAN R, et al

SpEED-QA: patial efficient entropic differencing for image and video quality

[J]. IEEE Signal Processing Letters, 2017, 24 (9): 1333- 1337

DOI:10.1109/LSP.2017.2726542      [本文引用: 1]

NI ZH K, MA L, ZENG H Q, et al

Gradient direction for screen content image quality assessment

[J]. IEEE Signal Processing Letters, 2016, 23 (10): 1394- 1398

DOI:10.1109/LSP.2016.2599294      [本文引用: 1]

KIM J, ZENG H, GHADIYARAM D, et al

Deep convolutional neural models for picture-quality prediction: challenges and solutions to data-driven image quality assessment

[J]. IEEE Signal Processing Magazine, 2017, 34 (6): 130- 141

DOI:10.1109/MSP.2017.2736018     

GHADIYARAM D, BOVIK A. C

Massive online crowdsourced study of subjective and objective picture quality

[J]. IEEE Transactions on Image Process, 2016, 25 (1): 372- 387

DOI:10.1109/TIP.2015.2500021      [本文引用: 1]

LARSON E C, CHANDLER D M

Most apparent distortion: full-reference image quality assessment and the role of strategy

[J]. Journal of Electronic Imaging, 2010, 19 (1): 011006-1- 011006-21

[本文引用: 4]

ZHANG L, ZHANG L, MOU X Q, et al

FSIM: a feature similarity index for image quality assessment

[J]. IEEE Transactions on Image Processing, 2011, 20 (8): 2378- 2386

DOI:10.1109/TIP.2011.2109730      [本文引用: 5]

ZHANG L, SHEN Y LI H Y

VSI: a visual saliency-induced index for perceptual image quality assessment

[J]. IEEE Transactions on Image Processing, 2014, 23 (10): 4270- 4281

DOI:10.1109/TIP.2014.2346028      [本文引用: 2]

DING Y, WANG SH Z, ZHANG D

Full-reference image quality assessment using statistical local correlation

[J]. Electronics Letters, 2014, 50 (2): 79- 81

DOI:10.1049/el.2013.3365      [本文引用: 2]

WU J J, LIN W S, SHI G M

Perceptual quality metric with internal generative mechanism

[J]. IEEE Transactions on Image Processing, 2013, 22 (1): 43- 54

DOI:10.1109/TIP.2012.2214048      [本文引用: 4]

丰明坤, 赵生妹, 邢超

基于视觉显著失真度的图像质量自适应评价方法

[J]. 电子与信息学报, 2015, 37 (9): 2062- 2068

[本文引用: 1]

FENG Ming-kun, ZHAO SHeng-mei, XING CHao

Image quality self-adaptive assessment based on visual salience distortion

[J]. Journal of Electronics & Information Technology, 2015, 37 (9): 2062- 2068

[本文引用: 1]

丰明坤, 赵生妹, 施祥

视觉多通道梯度与低阶矩自适应图像评价

[J]. 仪器仪表学报, 2015, 36 (11): 2531- 2537

DOI:10.3969/j.issn.0254-3087.2015.11.017      [本文引用: 3]

FENG Ming-kun, ZHAO SHeng-mei, SHI Xiang

Adaptive image quality assessment based on visual multi-channel gradient and low order moment

[J]. Chinese Journal of Scientific Instrument, 2015, 36 (11): 2531- 2537

DOI:10.3969/j.issn.0254-3087.2015.11.017      [本文引用: 3]

WANG ZH, BOVIK A C, SHEIKH H R, et al

Image quality assessment: from error visibility to structural similarity

[J]. IEEE Transactions on Image Processing, 2004, 13 (4): 600- 612

DOI:10.1109/TIP.2003.819861      [本文引用: 1]

WANG ZH, LU L G, BOVIK A C

Foveation scalable video coding with automatic fixation selection

[J]. IEEE Transactions on Image Processing, 2003, 12 (2): 243- 254

DOI:10.1109/TIP.2003.809015      [本文引用: 2]

LIU A M, LIN W S, NARWARIA M

Image quality assessment based on gradient similarity

[J]. IEEE Transaction on Image Processing, 2012, 21 (4): 1500- 1512

DOI:10.1109/TIP.2011.2175935      [本文引用: 1]

GAO X B, LU W, TAO D CH, et al

Image quality assessment based on multiscale geometric analysis

[J]. IEEE Transactions on Image Processing, 2009, 18 (7): 1409- 1423

DOI:10.1109/TIP.2009.2018014      [本文引用: 5]

林志洁, 丰明坤

深度视觉特征与策略互补融合的图像质量评价

[J]. 模式识别与人工智能, 2017, 30 (8): 682- 691

[本文引用: 1]

LIN ZHi-jie, FENG Ming-kun

Image quality assessment based on complementary pooling of deeply visual feature and strategy

[J]. Pattern Recognition and Artificial Intelligence, 2017, 30 (8): 682- 691

[本文引用: 1]

SHNAYDERMAN A, GUSEV A, ESKICIOGLU A M

An SVD-based grayscale image quality measure for local and global assessment

[J]. IEEE Transactions on Image Processing, 2006, 15 (2): 422- 429

DOI:10.1109/TIP.2005.860605      [本文引用: 1]

HU A ZH, ZHANG R YIN D, et al

Image quality assessment using an SVD-based structural projection

[J]. Signal Processing: Image Communication, 2014, 29 (3): 293- 302

DOI:10.1016/j.image.2014.01.007      [本文引用: 1]

WANG ZH, SIMONCELLI E P, BOVIK A C. Multi-scale structural similarity for image quality assessment [C]// Proceedings of the 37th IEEE Asilomar Conference on Signals, Systems and Computers. Pacific Grove: IEEE, 2002(2): 1398–1402.

[本文引用: 1]

SHEIKH H R, BOVIK A C, VECIANA G D

An information fidelity criterion for image quality assessment using natural scene statistics

[J]. IEEE Transactions on Image Processing, 2005, 14 (12): 2117- 2128

DOI:10.1109/TIP.2005.859389      [本文引用: 1]

SHEIKH H R, BOVIK A C

Image information and visual quality

[J]. IEEE Transactions on Image Processing, 2006, 15 (2): 430- 444

DOI:10.1109/TIP.2005.859378      [本文引用: 1]

/