浙江大学学报(工学版), 2026, 60(4): 800-811 doi: 10.3785/j.issn.1008-973X.2026.04.012

计算机技术

基于特征细化与注意力增强重构的水下图像增强算法

万刚,, 王小波, 石纲, 叶德震, 朱思思, 司帆,

1. 湖北省智慧水电技术创新中心,湖北 武汉 430000

2. 中国长江电力股份有限公司,湖北 宜昌 443000

3. 长江勘测规划设计研究有限责任公司,湖北 武汉 430010

Underwater image enhancement algorithm based on feature refinement and attention-augmented reconstruction

WAN Gang,, WANG Xiaobo, SHI Gang, YE Dezhen, ZHU Sisi, SI Fan,

1. Hubei Technology Innovation Center for Smart Hydropower, Wuhan 430000, China

2. China Yangtze Power Co. Ltd, Yichang 443000, China

3. Changjiang Survey, Planning, Design and Research Co. Ltd, Wuhan 430010, China

通讯作者: 司帆,男,助理工程师. orcid.org/0009-0009-3174-7370. E-mail:2024710585@yangtzeu.edu.cn

收稿日期: 2025-05-10  

基金资助: 湖北省智慧水电技术创新中心2023年开放研究基金资助项目(SDCXZX-JJ-2023-09);湖北省教育厅科学研究计划重点项目(D20231304);西藏自治区科技计划重大专项(XZ202402ZD0001);深地国家科技重大专项(2024ZD1001003);国家重点研发计划资助项目(2022YFB4703400).

Received: 2025-05-10  

Fund supported: 湖北省智慧水电技术创新中心2023年开放研究基金资助项目(SDCXZX-JJ-2023-09);湖北省教育厅科学研究计划重点项目(D20231304);西藏自治区科技计划重大专项(XZ202402ZD0001);深地国家科技重大专项(2024ZD1001003);国家重点研发计划资助项目(2022YFB4703400).

作者简介 About authors

万刚(1985—),男,高级工程师,从事水电站智能运维和检修技术研究.orcid.org/0009-0008-7575-9296.E-mail:wan_gang@ctg.com.cn , E-mail:wan_gang@ctg.com.cn

摘要

针对水下图像因光传播衰减、散射和水中溶解悬浮物等因素导致的图像质量退化问题,提出基于空间细化特征自注意力(SRFT)与通道特征注意力增强重构Transformer (CFART)模块的水下图像增强网络模型. SRFT模块对水下图像进行序列化处理和位置编码,采用4层空间自注意力提取全局退化差异,建立长程特征依赖关系. CFART模块采用异构卷积核投影特征,随后经通道融合输入至多头自注意力模块,并利用多层感知机与残差结构重构特征信息. 实验结果表明,本研究算法能有效改善水下图像中存在的颜色偏移、模糊以及低对比问题. 在客观评价指标方面,本算法的MSE (253.558)、PSNR (25.421)、Entropy (7.488)和UIQM (4.461)均优于同类方法;在SSIM(0.893)和UCIQE (0.592)上也表现出明显优势;主观视觉评价进一步证实本研究算法对退化的水下图像具有良好的色彩校正与细节恢复能力. 本研究算法可以优化水下图像质量,有助于提升海底调查与评估工作的精度与效率.

关键词: 水下图像增强 ; 图像质量退化 ; 自注意力机制 ; 空间细化特征 ; 增强重构Transformer模型

Abstract

Aiming at the degradation of underwater images due to light propagation attenuation, scattering, and dissolved suspended matter, a novel underwater image enhancement network integrating a spatial-wise refined feature Transformer (SRFT) module and a channel-wise feature attention enhanced reconstructed Transformer (CFART) module was proposed. Serialization processing and positional encoding on underwater image sequences were performed by the SRFT module and four-layered spatial self-attention mechanisms were applied to capture global degradation differences while establishing long-range feature dependencies. In the CFART module, features were projected via heterogeneous convolutional kernels and then fed into a multi-head self-attention module through channel fusion. And feature information was reconstructed using multilayer perceptron layers with residual connections. Experimental results showed that the proposed algorithm effectively improved issues such as color shift, blurriness, and low contrast issues in underwater images. In terms of objective evaluation metrics, the proposed algorithm outperformed similar methods with MSE of 253.558, PSNR of 25.421, Entropy of 7.488, and UIQM of 4.461. It also demonstrated significant advantages in SSIM and UCIQE tests with SSIM of 0.893 and UCIQE of 0.592. Subjective visual assessments further confirmed that the proposed algorithm provided excellent color correction and detail restoration capabilities for degraded underwater images. By optimizing the quality of underwater images, the proposed algorithm helps to enhance the precision and efficiency of seabed investigations and assessments.

Keywords: underwater image enhancement ; image quality degradation ; self-attention mechanism ; spatial-wise refined feature ; enhanced reconstructed Transformer model

PDF (10250KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

万刚, 王小波, 石纲, 叶德震, 朱思思, 司帆. 基于特征细化与注意力增强重构的水下图像增强算法. 浙江大学学报(工学版)[J], 2026, 60(4): 800-811 doi:10.3785/j.issn.1008-973X.2026.04.012

WAN Gang, WANG Xiaobo, SHI Gang, YE Dezhen, ZHU Sisi, SI Fan. Underwater image enhancement algorithm based on feature refinement and attention-augmented reconstruction. Journal of Zhejiang University(Engineering Science)[J], 2026, 60(4): 800-811 doi:10.3785/j.issn.1008-973X.2026.04.012

水下图像成像技术[1-2]是探索水下环境的关键技术,被广泛应用于海洋探测[3]、水下地形测绘[4]、水下结构监测[5]等. 水下光的传播衰减、散射和水中溶解的悬浮物等因素干扰,会导致水下图像质量退化,水下图像增强能有效克服图像质量退化问题,已逐渐成为研究热点. 因此,开展水下图像增强方法研究具有重要的科学意义和应用价值.

水下图像增强技术可分为基于传统与深度学习方法2类. 其中传统方法又可细分为基于视觉先验与物理模型2种. 基于视觉先验法是通过提升像素值改善视觉质量. 如He等[6]提出暗通道先验法去除图像雾化;周辉奎等[7]通过直方图均衡化(histogram equalization, HE)重新分配灰度级别,增强图像的整体对比度;弭永发等[8-9]提出对比度有限自适应直方图均衡化(contrast limited adaptive histogram equalization, CLAHE)的方法,有效抑制过度增强时的噪声问题. 视觉先验法易造成图像细节信息丢失、过度增强和边缘模糊等问题,且需要设置的参数较多,结果也会对参数较为敏感. 基于物理模型法是基于假设模型,通过估计参数反演图像质量退化过程,从而获取退化前的图像. Pan等[10]提出可学习的物理模型引导水下图像增强方法,通过双向无监督域适应技术来提升水下图像质量. Zhang等[11]提出基于多尺度Retinex模型的水下图像增强方法,可有效抑制图像增强过程中的光晕现象. Drews等[12]基于光传播物理模型,采用统计先验来恢复图像的视觉质量. 然而在复杂动态水下环境中,模型假设并不一定合理. 此外,多参数估计也增加了方法的不确定性.

基于深度学习的方法利用深度网络自动学习水下图像特征,并构建水下图像与增强图像之间的映射关系,从而实现水下图像增强任务. 现有方法可分为基于生成对抗网络(generative adversarial network, GAN)与基于端到端网络(end to end network) 2种类型. 在基于GAN的方法中,Li等[13]采用GAN生成浑浊的水下图像,并利用此图像训练构建水下图像增强模型. Zhu等[14]提出基于CycleGAN水下图像增强模型. 此类方法对生成器生成质量较为依赖,通常会导致增强图像对比度不足. 在基于端到端网络的方法中,郭继昌团队提出融合注意力机制的弱监督增强网络[15]和融合逆透射率图的水下图像增强网络[16],并通过主观和客观评价指标,在多种数据集场景下分析了其方法的有效性. 针对水中光的吸收和散射现象而导致的颜色失真和对比度降低,丛晓峰等[17]提出基于视觉的多损失融合Transformer网络. Peng等[18]提出U-shape Transformer网络,有效消除水下图像颜色伪影和透射缺陷. 然而,当Transformer网络对于不相关区域分配的注意力权重不合适时,可能会严重影响模型的性能.

针对以上问题,本研究从提高网络对衰减严重空间区域的关注和减少特征内信息的冗余2方面入手,提出基于空间细化特征自注意力(spatial-wise refine feature Transformer, SRFT)和通道特征注意力增强重构Transformer (channel-wise feature attention enhanced reconstructed Transformer, CFART)模块的水下图像增强网络模型,以提高水下图像的视觉效果,增强对水下图像恢复任务的适应性和鲁棒性.

1. 网络结构与算法

1.1. 网络总体结构

水下图像存在色彩伪影和细节模糊问题,若直接采用Transformer网络进行增强,往往会因密集注意力机制[19]对特征全局关系的计算,导致对水下图像不相关区域部分的注意力权重分配不合理,从而降低水下图像增强效果. 本研究提出基于特征细化与注意力增强重构的水下图像增强算法,该网络的整体结构如图1所示. 针对Transformer网络中产生的特征冗余问题,设计SRFT与CFART模块构建特征优化和注意力增强协同框架,减少特征冗余,降低噪声,实现水下图像的增强. 针对传统前馈网络中深层Transformer编码的全局语义特征存在通道冗余的问题,SRFT模块将特征细化模块嵌入前馈网络,通过“增强-抑制”双阶段通道精炼策略,先增强高价值通道特征,再采用门控机制减少特征冗余,有效降低噪声干扰. 针对传统重构层中特征映射缺陷,CFART模块将高效通道注意力(efficient channel attention, ECA)融入特征重构模块. 通过局部跨通道卷积实现非降维加权,在保留原有通道结构的前提下,对多尺度特征进行细粒度筛选. CFART中的重构模块通过强化纹理与色彩受损通道的响应权重,使重构特征在色偏校正和细节恢复方面表现更优,同时弥补了传统线性映射的粗粒度缺陷,使解码端获取的特征更聚焦,从而显著提高水下图像增强效果.

图 1

图 1   水下图像增强网络的总体结构图

Fig.1   Overall structure of underwater image enhancement network


1.2. 空间细化特征自注意力(SRFT)模块

针对Transformer网络密集注意力在聚合特征计算中造成无关区域信息冗余和嘈杂噪声问题,引入特征细化前馈网络以消除通道中的特征冗余. 与常规的前馈网络不同,特征细化前馈网络结合部分卷积PConv和门控机制,通过卷积PConv部分通道来提取重要特征,然后采用门控机制动态调整这些特征,从而在通道维度上减少冗余. SRFT模块结构如图2所示.

图 2

图 2   空间细化特征自注意力模块

Fig.2   Spatial-wise refined feature self-attention module


1) 数据输入. SRFT模块接收来自编码器的特征图输入,假设输入特征图为$ {\boldsymbol{F}}_{\mathrm{in}}\in {\mathbf{R}}^{\tfrac{H}{16}\times \tfrac{W}{16}\times C} $,即高度和宽度是输入图像的$ \dfrac{1}{16} $,通道数为$ C $. 为了适应模块的一维序列输入,使原始特征图与通道信息得以高效地融合与表达,使用线性投影操作将$ {\boldsymbol{F}}_{\mathrm{in}} $拉伸为一维特征序列$ {\boldsymbol{S}}_{\mathrm{in}}\in {\mathbf{R}}^{\tfrac{H\times W}{256}\times C} $,线性投影将每个空间位置的特征向量通过一个线性层映射到预定的维度,从而形成模块所需要的序列表示. 为了保留每个区域重要的位置信息,补充线性投影带来的空间信息损失,模块引入可学习的位置编码,并将其直接与特征序列进行融合,保证网络能够捕获特征区域之间的关系. 然后,位置编码模块将融合的特征序列$ {\boldsymbol{S}}_{\mathrm{in}} $输入多层Transformer模块中,该模块由4个标准的Transformer块组成,每块包含一个多头自注意力(multi-head attention, MHA)和一个特征细化前馈网络(refine feature forward network, RFFN).

2) 多头自注意力MHA. 在每一个Transformer层中,自注意力机制通过计算特征之间的关联程度,动态确定不同空间区域的重要性. 为了捕捉输入特征序列中的空间多样化关系,通过多头自注意力模块将输入特征序列$ {\boldsymbol{S}}_{\mathrm{in}}\in {\mathbf{R}}^{\tfrac{H\times W}{256}\times C} $并行划分为多个子空间(即多个头). 每个子空间以查询(Query,Q)、键(Key,K)、值(Value,V)表示输入特征序列的不同线性映射,并通过$ \text{softmax} $函数计算注意力权重,表达式如下:

$ A\left({\boldsymbol{Q}},{\boldsymbol{K}},{\boldsymbol{V}}\right)=\mathrm{softmax}\left(\frac{{\boldsymbol{Q}}{{\boldsymbol{K}}}^{\mathrm{T}}}{\sqrt{{d}_{{\mathrm{k}}}}}\right){\boldsymbol{V}}. $

式中:$ \sqrt{{d}_{{\mathrm{k}}}} $为缩放因子,用于平衡注意力权重的方差,防止内积过大导致梯度消失. 每个头独立计算注意力权重并提取特征,最后将所有头的输出连接为统一的特征表示:

$ \mathrm{MHA}\left({\boldsymbol{Q}},{\boldsymbol{K}},{\boldsymbol{V}}\right)=\sum\limits_{i=1}^{4 }{A}\left({{\boldsymbol{Q}}}_{i},{{\boldsymbol{K}}}_{i},{{\boldsymbol{V}}}_{i}\right){\boldsymbol{P}}_{\mathrm{O}}. $

式中:$ {\boldsymbol{P}}_{\mathrm{O}}\in {\bf{R}}^{B\times N\times C} $为输出的线性变换矩阵. 多头MHA有效提高了模型捕捉复杂空间关系的能力,帮助网络更细致地关注衰减严重的空间区域.

3) 特征细化前馈网络RFFN. 在每个Transformer块中,将MHA输出送入至特征细化前馈网络模块,对增强后的特征进行非线性映射,以增强模型的表达能力. 不同于FocalNet[20]直接在输入层应用空间门控,RFFN将处理过程解耦为2个顺序阶段.

(a)特征细化前馈模块对输入特征图$ {\boldsymbol{X}}_{\mathrm{in}} $通过部分卷积运算[21]引入固有的通道稀疏性先验来增强局部特征信息,在减少计算量的同时保留关键通道信息,并引入非线性激活函数增强特征区分性,使网络能够先聚焦于放大关键特征信息. 该过程可以表示为

$ \boldsymbol{X}'=\mathrm{GELU}\left({\boldsymbol{P}}_{1}\times \mathrm{PConv}\left({\boldsymbol{X}}_{\mathrm{in}}\right)\right). $

式中:$ {\boldsymbol{X}}_{\mathrm{in}} $表示输入特征图;$ {\boldsymbol{P}}_{1} $为线性投影矩阵;$ \mathrm{PConv}\left(\cdot \right) $为部分卷积操作;$ \mathrm{GELU} $为非线性激活函数;$ \boldsymbol{X}'\in {\mathbf{R}}^{H\times W\times C'} $为输出结果,$ C' $表示经过特征增强后的中间通道数.

(b)通过数据依赖的门控抑制冗余信息,将增强后的特征$ \boldsymbol{X}' $沿通道维度均等分割为2部分$ {\boldsymbol{X}}_{1} $$ {\boldsymbol{X}}_{2} $,其中$ {\boldsymbol{X}}_{1} $表示后续特征调值,$ {\boldsymbol{X}}_{2} $表示生成门控信号以抑制冗余. 利用门控机制对特征进行化简,首先将通道分割后的$ {\boldsymbol{X}}_{2} $从序列形式转换为二维特征图,再恢复为序列,引入局部性信息;其次使用深度卷积$ \mathrm{DWConv} $[22]提取轻量级局部空间特征,为门控信号注入局部空间上下文信息,生成门控权重;然后将增强后的特征$ {\boldsymbol{X}}_{1} $与门控权重逐元素相乘,动态抑制冗余通道的特征响应,保留通道重要信息. 门控机制$ {\boldsymbol{X}}_{\mathrm{r}} $的实现过程可表示为

$ {\boldsymbol{X}}_{\mathrm{r}}={\boldsymbol{X}}_{1}\otimes {F}\left(\mathrm{DWConv}\left({R}\left({\boldsymbol{X}}_{2}\right)\right)\right). $

式中:$ {F}\left(\cdot \right) $$ {R}\left(\cdot \right) $分别表示将输入序列转换为二维特征映射的展平(Flatten)和重塑(Reshape)操作,$ \mathrm{DWConv}\left(\cdot \right) $为深度可分离卷积操作,$ \otimes $表示矩阵乘法. 通过线性投影将门控简化后的特征$ {\boldsymbol{X}}_{\mathrm{r}} $映射到目标维度,结合二次非线性激活函数进一步提升特征表达能力,最终输出优化后的特征$ {\boldsymbol{X}}_{\mathrm{out}} $. 并在调整通道维度后,将最后一个Transformer块输出的特征序列$ {\boldsymbol{S}}_{{\mathrm{l}}}\in {\mathbf{R}}^{\tfrac{H\times W}{256}\times C} $经特征重组还原为$ {\boldsymbol{F}}_{\mathrm{out}}\in {\mathbf{R}}^{\tfrac{H}{16}\times \tfrac{W}{16}\times C} $的特征图.

1.3. 通道特征注意力增强重构Transformer(CFART)模块

为了增强对衰减严重的颜色通道的关注,引入通道特征注意力增强重构模块替代原始生成器编解码架构的残差连接. 采用通道多头自注意力机制和多尺度特征融合来更精确地处理不同通道之间非均匀衰减的问题,并将ECA[23] 嵌入到重构层中形成注意力增强重构模块,通过ECA的局部跨通道交互来提高模块对受水下环境影响严重的特征通道的关注,增强特征表达能力,从而抑制噪声,提升水下图像增强质量. ECA的自适应交互范围也使得模块能更好地适应不同条件下的图像特征,增强模型对水下不同场景的泛化能力. CFART模块结构如图3所示.

图 3

图 3   通道特征注意力增强重构模块

Fig.3   Channel-wise feature attention enhanced reconstructed module


1) 多尺度特征编码. 多尺度特征编码模块的输入是编码器输出的不同尺度的特征图$ {\boldsymbol{F}}_{i}\in {\mathbf{R}}^{\tfrac{H}{{2}^{i}}\times \tfrac{W}{{2}^{i}}\times {{C}_{i}}} $$ \left(i=0,1,2,3\right) $,设置基准块大小$ T $为32、相关滤波器大小为$ \frac{T}{{2}^{i}}\times \frac{T}{{2}^{i}} $、步长为$ \frac{T}{{2}^{i}} $的卷积核进行线性投影,确保不同尺度的特征图被分割为相同数量的块(块数$ d={H\times W}/{{T}^{2}} $),同时保留各自的通道数$ {C}_{i} $. 将所有尺度的特征序列$ {\boldsymbol{S}}_{\mathrm{in}} $沿通道维度拼接生成全局特征序列$ \boldsymbol{S}\in {\mathbf{R}}^{d\times C} $,其中$ C={C}_{0}+{C}_{1}+{C}_{2}+{C}_{3} $. 同时,通过线性变换生成多尺度的查询向量$ {\boldsymbol{Q}}_{i}\in {\mathbf{R}}^{d\times {{C}_{i}}} $、全局键$ \boldsymbol{K}\in {\mathbf{R}}^{d\times C} $和值$ \boldsymbol{V}\in {\mathbf{R}}^{d\times C} $.

2) 通道多头注意力. 将拼接后的特征序列作为通道多头注意力模块的输入,分别计算每个通道与其他通道之间的相似度,形成注意力矩阵$ \boldsymbol{S}={{\boldsymbol{Q}}_{i}^{\mathrm{T}}{\boldsymbol{K}}}/{\sqrt{C}} $. 在通道非空间维度进行实例归一化(instance normalization,IN)得到通道维度注意力$ {\bf{CA}}_{i}\in {\mathbf{R}}^{{{C}_{i}}\times d} $,表示稳定训练过程并增强梯度传播,确保不同通道之间的相似性计算不会被某些数值过大的通道主导. 多头注意力机制通过对多个通道维度上的注意力同时计算,进而提升网络对各颜色通道差异化信息的敏感度,获得的通道特征$ {{\bf{CHM}}}{{{\bf{A}}}}_{{{i}}} $表达式为

$ {{\bf{CHM}}}{{{\bf{A}}}}_{i}=\frac{1}{N}\sum\limits_{n=1}^{N}{{\bf{CA}}}_{i}^{n}+{{\boldsymbol{Q}}}_{i}. $

式中:$ N $表示注意力头的数量,本研究中设置为4.

3) 注意力增强重构. 通道多头注意力模块将输出的特征表示送入注意力增强重构模块,4个重构模块分别对应4个尺度的特征(通道数分别为64、128、256、512). 为了区分不同通道间的重要性差异,通过在重构层中使用ECA注意力机制实现对特征进行通道维度重标定. 首先,ECA模块对卷积后特征图$ {\bf{CHM}}{{\bf{A}}}_{i} $的每个通道进行全局平均池化(global average pooling,GAP),将空间信息压缩为通道维度的全局描述,得到通道统计向量. 随后,使用一维卷积$ \mathrm{C}1{\mathrm{D}}_{k} $在通道维度上进行局部跨通道交互,避免维度缩减. 一维卷积使用的自适应核宽$ k $大小可由以下公式得到:

$ k={\left| \frac{{\log }_{2}\;{C}_{i}}{\gamma }+\frac{b}{\gamma }\right| }_{\mathrm{odd}}. $

式中:$ \gamma $$ b $为超参数,在本模块中分别设置为2和1;$ {\left| t\right| }_{\mathrm{odd}} $表示取最接近$ t $的奇数. 然后,经过$ \mathrm{Sigmoid} $函数激活后获得表征每个通道重要程度的注意力权重向量,并与卷积输出的原始特征逐通道相乘,实现特征重标定,增强重要通道的特征响应,抑制通道冗余和无关信息,使网络能够更准确地关注高频细节与边缘特征. 最后,将经过ECA注意力增强后的特征图通过层归一化来稳定训练过程,加速收敛,提高模型性能,注意力增强重构模块的输出$ {\boldsymbol{F}}_{i} $可以表示为

$ {\boldsymbol{F}}_{i}={{\bf{CHM}}}{{{\bf{A}}}}_{i}+{M}\left({L}\left(\mathrm{ECA}\left({{\bf{CHM}}}{{{\bf{A}}}}_{i}\right)\right)\right). $

式中:$ {L} $表示层归一化,$ {M} $表示多层感知器,$ {\boldsymbol{F}}_{i}\in {\mathbf{R}}^{d\times {{C}_{i}}} $. 对4个不同的输出特征序列$ {\boldsymbol{F}}_{i} $进行特征映射,最终将重构的4个特征图$ {\boldsymbol{F}}_{\mathrm{o}}\in {\mathbf{R}}^{\tfrac{H}{{2}^{i}}\times \tfrac{W}{{2}^{i}}\times {{C}_{i}}} $送入解码器中进行下一步的水下图像增强处理.

1.4. 网络整体流程

本研究算法的整个流程如图4 所示. 网络在编码阶段通过多级卷积和下采样构建特征金字塔,4个尺度的特征图同步输入通道特征注意力增强重构transformer(CFART)模块,该模块采用异构卷积核进行特征投影,经过通道拼接后执行多头自注意力计算,最后通过多层感知机与注意力增强重构多尺度特征. 深层特征图则输入空间细化特征自注意力模块SRFT,经序列化处理和位置编码后,通过4层空间自注意力层提取全局退化差异,建立长程依赖关系. 解码器采用渐进式恢复策略:SRFT输出特征经重映射后输入第1个解码块,CFART各尺度特征通过残差连接注入对应层级. 判别器采用多源特征融合策略,其4层卷积块同时接收参考图像下采样特征、编码器增强特征及内部传播特征,通过特征拼接卷积实现真伪判别,并通过梯度回传机制增强生成器稳定性,进一步优化增强图像的细节表现与视觉质量.

图 4

图 4   基于特征细化与注意力增强重构的水下图像增强网络整体流程

Fig.4   Overall architecture of underwater image enhancement network based on feature refinement and attention-augmented reconstruction


2. 实验结果与分析

2.1. 实验设置

实验在Ubuntu 20.04操作系统环境下,基于NVIDIA RTX4070 12 GB和64 GB RAM,采用Pytorch 2.0.1和CUDA 11.8实现网络模型的构建、训练与优化. 采用Adam优化算法,共进行800个训练轮次,批量处理,Batchsize设置为2. 为了提高模型收敛能力,采用由单一色彩空间损失函数和其他损失函数组成的混合损失函数来训练模型,在前500个轮次中初始学习率设置为0.000 5,在后300个轮次中学习率调整为0.000 2. 为了增强训练集多样性,通过裁剪、旋转及随机水平翻转,对现有图像进行数据增强处理. 所有图像在输入网络前被调整为固定大小$ 256\times 256 $,并将像素值归一化至[0, 1.0].

2.2. 数据集

大规模水下图像数据集[18](large scale underwater image dataset,LSUI)包含4279个真实水下图像组,每组图像由原始图像和清晰参考图像组成. 在数据质量方面,LSUI提供了比现有同类数据集更高质量的参考图像,能有效评估水下图像增强算法的性能. 实验随机选取LSUI数据集中不同场景的3879张水下图像作为训练集,剩余的400张水下图像作为测试集.

水下图像增强基准[24](underwater image enhancement benchmark, UIEB)包含890组具有相应参考图像的真实水下图像,UIEB数据集在场景、光照条件和图像质量等方面更加丰富多样,能够提供更全面的测试环境. 实验随机选取UIEB数据集中不同场景的800张水下图像作为训练集,剩余的90张水下图像作为测试集.

鉴于水下环境复杂多样,实验设计采用复杂水下场景(见图5)与简单水下场景(见图6)的双维度验证框架来分析算法的性能. 本实验通过计算水下图像的平均梯度(average gradient, AG)来定量评估图像的纹理清晰度,以此作为区分图像复杂程度的客观指标;同时结合主观视觉评价,由观察者对场景中的纹理细节、结构丰富性及视觉质量进行判断,进一步区分水下场景的复杂程度.

图 5

图 5   各算法对复杂水下图像增强的主观视觉对比结果

Fig.5   Subjective visual comparison results of various algorithms for complex underwater image enhancement


图 6

图 6   各算法对简单水下图像增强的主观视觉对比结果

Fig.6   Subjective visual comparison results of various algorithms for simple underwater image enhancement


2.3. 主观评价

主观评价是水下图像质量评估中不可或缺的一部分,依赖于人类视觉系统的感知特性与认知判断. 为了系统评估不同增强方法对不同水下图像的增强效果,实验选取3种传统图像增强算法(直方图均衡化HE[7]、自适应直方图均衡化CLAHE[8]、去雾算法Defog[6])以及5种基于深度学习的水下图像增强算法(Ucolor[25]、URST[26]、U-Shpae[18]、WFFP[27]和Spectroformer[28]). 将复杂水下场景(见图5)和简单水下场景(见图6)按色偏类型分组进行可视化对比,以便更全面地验证模型性能. 传统算法HE和CLAHE能够在一定程度上提升图像的全局对比度,但在增强过程中易引起局部区域过饱和,导致增强图像色彩失真严重,如图5(Ⅰ)~(Ⅵ)所示;Defog算法避免了传统算法的过曝问题,但其增强效果存在局限性,未能解决水下图像的光谱偏移问题,且在处理复杂纹理图像时出现特征退化现象,表现为图5(Ⅴ)~(Ⅵ)中生物纹理细节的严重缺失. 相较于传统图像增强算法,基于深度学习的水下图像增强算法在图像色偏校正方面表现出显著优势. Ucolor算法针对水下图像的色彩失衡问题进行了校正,相比于传统算法,有效提升了图像的色彩饱和度和对比度,但Ucolor对图像的增强效果有限,存在色彩失真现象,如图5(Ⅳ)~(Ⅵ)中图像边缘产生非物理光晕伪影. 在绿色场景下,如图5(Ⅲ)~(Ⅳ)所示,仅本研究算法和URST算法实现了绿色色偏的精准校正,有效恢复了水下图像的颜色信息. Ucolor算法因局部对比度过高,导致绿色信息突出且不自然,U-Shape算法则同时存在色偏残留与纹理丢失问题. 在蓝色低照度场景下,如图5(Ⅴ)~(Ⅵ),Ucolor、U-Shape和WFFP均未能完成水下图像的蓝色色偏,仅对原始水下图像做了低水平增强,图像增强效果不理想. URST算法虽完成了对图5(Ⅴ)中区域主要目标的颜色恢复但在低照度场景下,如图5(Ⅵ),URST算法对蓝绿色偏的校正效果较差. Septroformer算法虽然基本上完成了图像色彩校正,但主观视觉效果较差,对图像可视的增强效果并不明显. 本研究算法在跨场景测试中最大限度地恢复了图像的真实色彩,展现出更为稳定和优越的性能,与参考图像对比表明,本研究算法基本实现了主要色彩和细节的恢复,且未出现过度增强问题,其视觉效果最接近真值图像.

各算法对简单水下图像增强的主观视觉对比结果如图6所示,实验样本选取以水下地形为主要特征的简单水下图像. 传统水下图像增强算法HE在部分区域如图6(Ⅰ)、(Ⅳ)~ (Ⅵ)中存在局部对比度过度增强问题,导致图像色域偏移. CLAHE算法和Defog算法虽能提升图像清晰度,但未能有效改善图像色度失真问题,视觉效果不佳. 相比于传统图像增强方法,本研究算法和其他5种深度学习方法对蓝绿色偏的纠正效果有明显提升,然而Ucolor在图6(Ⅲ)~(Ⅳ)区域存在着图像细节纹理丢失,且在图6(Ⅰ)~(Ⅱ)区域呈现图像颜色畸变. U-Shape算法虽在细节信息处理能力上要优于Ucolor,但在图6(Ⅴ)区域上仍存在局部色偏. WFFP算法能有效保留图像细节信息,但色彩失真严重,色偏校正效果不佳. Septroformer算法基本实现了图像色彩校正,但主观视觉效果较差,图像整体增强效果不明显. 相比之下,本研究算法与USRT算法在简单水下图像的色偏校正和细节信息处理方面都显著优于其他方法,其中本研究算法在图6(Ⅲ)和(Ⅵ)区域的色彩过渡更自然,比URST算法有着更好的视觉效果.

为了进一步验证本研究算法的有效性,如图7所示展示了不同类型水下图像的放大对比结果. 本研究算法展现出卓越的细节增强能力,如图7(Ⅰ)区域中的小球边缘纹理细节信息清晰可辨,精准实现了每个小球的边缘分离,且小球的表面纹理层次信息丰富;本研究算法实现了局部色偏的精准校正,如图7(Ⅱ)区域所示. 放大对比结果表明,本研究算法在细节展现、色彩还原和主观视觉效果上优于其他算法,具有更好的水下图像增强性能.

图 7

图 7   不同类型水下图像的放大对比结果

Fig.7   Comparison results of magnification for different types of underwater images


为了评测本研究算法的泛化性与鲁棒性,将本研究模型在UIEB数据集上与现有算法进行对比测试,结果如图8所示. 其中,(Ⅰ)~(Ⅲ)为简单水下场景,(Ⅳ)~(Ⅵ)为复杂水下场景,且按照不同色偏类型分组对比. 3种传统算法在UIEB数据集上的色彩校正能力仍显不足,增强图像普遍存在色彩失真问题. Ucolor算法在一定程度上对部分色偏进行校正,但其色彩校正能力有限,图像细节信息缺失严重;URST算法和WFFP算法虽能保留较多图像细节信息,但图像整体色调不自然,如图8 (Ⅰ)和(Ⅴ)区域所示,图像产生不自然的色彩光晕;U-shape算法和Spetroformer算法赋予了图像较为鲜艳的色彩,但图像细节处略显模糊,如图8(Ⅴ)区域处图像整体轮廓不清晰,细节缺失严重,且Spectroformer算法仍存在图像整体模糊,主观视觉不佳的问题. 本研究算法在复杂场景下能稳定输出高质量图像,有效处理图像中的细节信息,如图8 (Ⅳ)~(Ⅵ)区域所示,并能显著改善图像色彩失真问题. 本研究算法相较于其他算法,在多变的水下场景中均展现出更优的泛化性和鲁棒性,能有效提升水下图像的质量.

图 8

图 8   各算法在UIEB数据集中的测试结果

Fig.8   Testing results of various algorithms on UIEB dataset


2.4. 客观评价

图像质量评价指标是评估处理算法好坏的重要指标,为了评估图像的增强效果,采用6种水下图像客观评价指标:均方误差(mean square error,MSE)、峰值信噪比(peak signal-to-noise ratio,PSNR)、结构相似性(structural similarity,SSIM)、水下图像质量指标(underwater image quality measure,UIQM)[29]、水下图像质量评估指标(underwater color image quality evaluation,UCIQE)[30]和图像信息熵(Entropy).

MSE、PSNR和SSIM是全参考图像质量评价指标,评价过程中需要真值图像作为参考基准. PSNR基于均方误差MSE计算,通过比较原始图像和失真图像之间每个像素值的差异,反映图像在压缩和传输过程中的质量损失. PSNR数值越大,MSE越小,表示评估图像的噪声越小,与真值图像之间的相似度程度越高. SSIM通过比较原始图像和处理图像之间的亮度相似性、对比度相似性和结构信息相似性来评估图像质量,相比于传统的基于像素差异的评估方法,SSIM考虑了人眼视觉系统的特性,能够更准确地反映人眼对图像质量的主观感受.

图像信息熵、UIQM和UICQE是无参考图像质量评价指标,评价过程中无需真值图像作为参考基准. Entropy是一种评价图像信息量的客观评价指标,如果融合后熵增加,则表明融合信息增加,图像细节信息更好. UIQM综合3个分量:水下图像色彩丰富度(UICM)、清晰度(UISM)和对比度(UIConM)来评价图像整体质量,UIQM越高代表图像颜色更自然、清晰度更好、对比度更佳. UICQE指标专注于衡量水下色彩图像的视觉质量,通过图像颜色和亮度统计特征来量化水下图像退化程度. UICQE越高,表明图像在色彩、饱和度和对比度之间具有更好的平衡,图像质量越好.

本研究算法与各算法在LSUI数据集上的评估结果如表1所示. 其中,指标数值“↑”表示越大越好,“↓”表示越小越好,加粗数值表示该算法在该性能指标上最好,下划线表示该算法在该性能指标上次最好). 本研究算法在峰值信噪比PSNR、图像信息熵Entropy和水下图像质量指标UIQM上均高于其他算法,说明利用本研究算法增强的水下图像视觉感知一致性较好;对于复杂图像的细节信息处理效果显著,反映图像在色彩一致性、边缘清晰度和对比度平衡方面的视觉感知质量优于其他算法;本研究算法的均方误差MSE远低于其他算法,说明图像在像素级上的误差程度小,符合结果图像清晰度高的特点. 在UCIQE指标上,本研究算法获得了次优结果,说明本研究算法在改善水下图像颜色偏移、模糊低对比和图像失真等问题方面也有出色表现. 对比在UCIQE指标上结果最优的HE算法,本研究算法没有局部对比度过高、色彩饱和、图像过曝等问题. 在所有方法中,本研究算法在SSIM指标上的得分排第3位,说明增强图像在结构上较接近于参考图像,结合与URST算法和Ucolor算法增强图像的对比,本研究算法的视觉效果表现更自然. 通过以上实验对比,可以看出,本研究算法在主观视觉效果和客观性能指标上均表现出色,证明了本研究算法在水下图像增强方面的优越性能.

表 1   各算法在LSUI数据集中的图像质量客观评价指标

Tab.1  Objective evaluation metrics of image quality for various algorithms on LSUI

算法MSE↓PSNR↑SSIM↑EntropyUIQM↑UCIQE↑
原始图像1609.68217.4910.8646.8874.1170.542
HE[7]2558.82814.9310.7517.1414.3080.604
CLAHE[8]1502.20117.0080.8437.2084.3370.565
DEFOG[6]2511.26715.6080.8696.9254.3250.553
Ucolor[25]352.19322.9110.8987.2344.3890.562
URST[26]394.47622.7050.9057.3214.1770.585
U-Shape[18]334.99224.2930.8817.2844.4180.571
WFFP[27]968.71318.2710.7356.7924.2010.601
Spectroformer[28]774.80619.3880.6406.3143.95960.552
本研究算法253.55825.4210.8937.4884.4610.592

新窗口打开| 下载CSV


本研究算法与各算法在UIEB数据集上的评估结果如表2所示. 本研究算法在均方误差MSE上较次优的U-shape降低了40.3%,反映了本研究算法在像素级保真度和噪声抑制上具有优势;相应地,在峰值信噪比PSNR指标上亦居于首位,表明其增强后的图像具有最高的信噪比和整体质量;在结构相似性SSIM指标上,本研究算法与WWFP算法共同取得了最优结果;在水下场景视觉感知特性方面,本研究算法的UIQM取得了最优值;虽然在信息熵Entropy和水下色彩感知指标中,本研究算法未达到最优值,但其结果处于合理且具有竞争力的区间. 综合增强图像的主观视觉感受,本研究算法的综合性能优于所列对比算法,充分验证了本研究算法具有良好的泛化性和鲁棒性.

表 2   各算法在UIEB数据集中的图像质量客观评价指标

Tab.2  Objective evaluation metrics of image quality for various algorithms on UIEB

算法MSE↓PSNR↑SSIM↑EntropyUIQM↑UCIQE↑
原始图像1751.35817.2530.7546.8943.9670.539
HE[7]1868.49116.6210.7377.1674.2940.664
CLAHE[8]1216.22618.1940.7137.3194.4240.567
DEFOG[6]2730.89615.2430.7096.8414.2310.553
Ucolor[25]868.58520.1510.7487.3684.2110.608
URST[26]864.72520.1780.7697.4154.3590.584
U-Shape[18]734.62620.8810.7097.2624.3970.578
WFFP[27]828.48518.9490.7917.7494.2130.609
Spectroformer[28]1546.45516.2350.6846.5523.7230.521
本研究算法438.48021.7110.7927.3014.4430.579

新窗口打开| 下载CSV


2.5. 消融实验

为了证明特征细化模块和注意力增强重构模块在水下图像增强网络中的作用,在保证其他实验条件相同的情况下,消融实验通过对比不同模块的增益效果,验证算法的有效性. 消融实验设置如下:1)在基准模型中引入特征细化增强模块;2)在基准模型中引入注意力增强重构模块. 消融实验对比图像如图9所示,基准模型在增强水下图像时,虽然能够改善部分的视觉效果,但在颜色对比度、细节恢复度和纹理清晰度方面仍存在不足,在黄色鱼场景下(见图9(Ⅰ)区域),经过基准模型增强的图像,整体亮度有所提升,但鱼的轮廓和背景珊瑚的细节仍然较为模糊,颜色饱和度较低. 在引入特征细化模块后,图像的色彩对比度和细节表现得到显著提升,在水下珊瑚场景中(见图9(Ⅱ)区域),经过特征细化模块处理的图像,纹理表现更加清晰. 注意力增强重构模块的引入使得图像整体质量进一步提升,不仅改善了颜色饱和度,而且显著增强了图像中纹理的清晰度,图像细节更丰富. 本研究算法融合特征细化模块和注意力增强重构模块,在所有测试场景中均取得了最佳视觉效果,增强结果图像最接近参考图像. 表明本研究算法在水下图像增强任务中具有最好的主观视觉表现.

图 9

图 9   消融实验在不同场景下的主观视觉对比结果

Fig.9   Subjective visual comparison of ablation experiment across different scenarios


消融实验的图像客观评价指标如表3所示,本研究算法在特征细化模块和注意力增强重构模块的协同作用,在测试的水下图像客观评价指标中均取得了最好的结果,说明本研究算法在主观视觉效果和客观评价中都有着比其他算法更好的质量. 对本研究网络中的SRFT与CFART进行消融实验,结果表明本研究算法具有良好的鲁棒性和稳定性.

表 3   消融实验的图像质量客观评价指标

Tab.3  Objective evaluation metrics of image quality for ablation experiment

算法MSE↓PSNR↑SSIM↑Entropy↑UIQM↑UCIQE↑
基准334.99224.2930.8817.2844.4180.571
基准+特征
细化模块
290.06424.7590.7797.2494.4610.569
基准+重构
增强模块
310.60424.4030.7657.2154.4050.564
本研究算法253.55825.4210.8937.4884.4710.592

新窗口打开| 下载CSV


3. 结 语

本研究算法针对常规水下图像增强Transformer网络中密集自注意力机制所导致的特征冗余,通过改进空间特征细化自注意力模块SRFT和通道特征注意力增强重构Transformer (CFART)模块,利用“抑制-增强”策略与高效注意力重构机制的协同作用,在完成了关键信息突出的同时降低噪声和特征冗余. 在公开数据集LSUI上的实验结果表明,本研究算法能有效改善水下图像中的颜色偏移、模糊、低对比和细节信息丢失等问题. 与同类方法对比,通过本研究算法得到的水下增强图像不仅有着更好的主观视觉效果,而且在客观评价指标测试中具有显著优势. 本研究算法主要考虑水下图像中存在的冗余噪声对图像质量的影响,但在水下图像颜色、饱和度和对比度的平衡处理方面不够准确,如何使增强后的水下图像有着更好的色彩质量平衡是未来研究的方向.

参考文献

YANG M, HU J, LI C, et al

An in-depth survey of underwater image enhancement and restoration

[J]. IEEE Access, 2019, 7: 123638- 123657

DOI:10.1109/ACCESS.2019.2932611      [本文引用: 1]

SAHU P, GUPTA N, SHARMA N

A survey on underwater image enhancement techniques

[J]. International Journal of Computer Applications, 2014, 87 (13): 19- 23

[本文引用: 1]

STANKIEWICZ P, TAN Y T, KOBILAROV M

Adaptive sampling with an autonomous underwater vehicle in static marine environments

[J]. Journal of Field Robotics, 2021, 38 (4): 572- 597

DOI:10.1002/rob.22005      [本文引用: 1]

阳凡林, 暴景阳, 胡兴树. 水下地形测量 [M]. 武汉: 武汉大学出版社, 2017.

[本文引用: 1]

陈卫忠, 李长俊, 曾灿军, 等

大型水下盾构隧道结构健康监测系统的构建与应用

[J]. 岩石力学与工程学报, 2018, 37 (1): 1- 13

DOI:10.13722/j.cnki.jrme.2017.0327      [本文引用: 1]

CHEN Weizhong, LI Changjun, ZENG Canjun, et al

Establishment and application of structural health monitoring system for large shield tunnel

[J]. Chinese Journal of Rock Mechanics and Engineering, 2018, 37 (1): 1- 13

DOI:10.13722/j.cnki.jrme.2017.0327      [本文引用: 1]

HE K, SUN J, TANG X. Single image haze removal using dark channel prior [C]// IEEE Conference on Computer Vision and Pattern Recognition. Miami. IEEE, 2009: 1956–1963.

[本文引用: 4]

周辉奎, 章立, 胡素娟

改进直方图匹配和自适应均衡的水下图像增强

[J]. 红外技术, 2024, 46 (5): 532- 538

[本文引用: 4]

ZHOU Huikui, ZHANG Li, HU Sujuan

Underwater image enhancement based on improved histogram matching and adaptive equalization

[J]. Infrared Technology, 2024, 46 (5): 532- 538

[本文引用: 4]

弭永发, 迟明善, 张强, 等

基于颜色校正与改进的CLAHE多尺度融合水下图像增强

[J]. 无线电工程, 2024, 54 (6): 1470- 1480

DOI:10.3969/j.issn.1003-3106.2024.06.016      [本文引用: 4]

MI Yongfa, CHI Mingshan, ZHANG Qiang, et al

Underwater image enhancement based on color correction and improved CLAHE multi-scale fusion

[J]. Radio Engineering, 2024, 54 (6): 1470- 1480

DOI:10.3969/j.issn.1003-3106.2024.06.016      [本文引用: 4]

吴清平

基于衰减补偿与反转CLAHE的水下图像增强算法

[J]. 电脑编程技巧与维护, 2023, (12): 136- 139

DOI:10.3969/j.issn.1006-4052.2023.12.039      [本文引用: 1]

WU Qingping

Underwater image enhancement algorithm based on attenuation compensation and inversion CLAHE

[J]. Computer Programming Skills and Maintenance, 2023, (12): 136- 139

DOI:10.3969/j.issn.1006-4052.2023.12.039      [本文引用: 1]

PAN J, DUAN Z, DUAN J, et al

LUIE: learnable physical model-guided underwater image enhancement with bi-directional unsupervised domain adaptation

[J]. Neurocomputing, 2024, 602: 128286

DOI:10.1016/j.neucom.2024.128286      [本文引用: 1]

ZHANG S, WANG T, DONG J, et al

Underwater image enhancement via extended multi-scale Retinex

[J]. Neurocomputing, 2017, 245: 1- 9

DOI:10.1016/j.neucom.2017.03.029      [本文引用: 1]

DREWS P L J, NASCIMENTO E R, BOTELHO S S C, et al

Underwater depth estimation and image restoration based on single images

[J]. IEEE Computer Graphics and Applications, 2016, 36 (2): 24- 35

DOI:10.1109/MCG.2016.26      [本文引用: 1]

LI J, SKINNER K A, EUSTICE R M, et al

WaterGAN: unsupervised generative network to enable real-time color correction of monocular underwater images

[J]. IEEE Robotics and Automation Letters, 2018, 3 (1): 387- 394

DOI:10.1109/lra.2017.2730363      [本文引用: 1]

ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks [C]// Proceedings of the IEEE International Conference on Computer Vision. Venice: IEEE, 2017: 2242–2251.

[本文引用: 1]

雍子叶, 郭继昌, 李重仪

融入注意力机制的弱监督水下图像增强算法

[J]. 浙江大学学报: 工学版, 2021, 55 (3): 555- 562,570

DOI:10.3785/j.issn.1008-973X.2021.03.016      [本文引用: 1]

YONG Ziye, GUO Jichang, LI Chongyi

Weakly supervised underwater image enhancement algorithm incorporating attention mechanism

[J]. Journal of Zhejiang University: Engineering Science, 2021, 55 (3): 555- 562,570

DOI:10.3785/j.issn.1008-973X.2021.03.016      [本文引用: 1]

张剑钊, 郭继昌, 汪昱东

基于融合逆透射率图的水下图像增强算法

[J]. 浙江大学学报: 工学版, 2023, 57 (5): 921- 929

DOI:10.3785/j.issn.1008-973X.2023.05.008      [本文引用: 1]

ZHANG Jianzhao, GUO Jichang, WANG Yudong

Underwater image enhancement algorithm via fusing reverse medium transmission map

[J]. Journal of Zhejiang University: Engineering Science, 2023, 57 (5): 921- 929

DOI:10.3785/j.issn.1008-973X.2023.05.008      [本文引用: 1]

丛晓峰, 桂杰, 章军

基于视觉Transformer的多损失融合水下图像增强网络

[J]. 智能科学与技术学报, 2022, 4 (4): 522- 532

[本文引用: 1]

CONG Xiaofeng, GUI Jie, ZHANG Jun

Underwater image enhancement network based on visual Transformer with multiple loss functions fusion

[J]. Chinese Journal of Intelligent Science and Technology, 2022, 4 (4): 522- 532

[本文引用: 1]

PENG L, ZHU C, BIAN L. U-shape transformer forUnderwater image enhancement [C]// Computer Vision – ECCV 2022 Workshops. Cham: Springer, 2023: 290–307.

[本文引用: 5]

ZHOU S, CHEN D, PAN J, et al. Adapt or perish: adaptive sparse transformer with attentive feature refinement for image restoration [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2024: 2952–2963.

[本文引用: 1]

YANG J, LI C, DAI X, et al. Focal modulation networks [C]// Advances in Neural Information Processing Systems. [S. l.]: NeurIPS, 2022: 4203−4217.

[本文引用: 1]

CHEN J, KAO S H, HE H, et al. Run, don’t walk: chasing higher FLOPS for faster neural networks [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver: IEEE, 2023: 12021–12031.

[本文引用: 1]

ANDREW G, ZHU M

Efficient convolutional neural networks for mobile vision applications

[J]. Mobile Networks and Applications, 2017, 10 (2): 151

[本文引用: 1]

WANG Q, WU B, ZHU P, et al. ECA-net: efficient channel attention for deep convolutional neural networks [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 11531−11539.

[本文引用: 1]

LI C, GUO C, REN W, et al. An underwater image enhancement benchmark dataset and beyond [J]. IEEE Transactions on Image Processing, 2019.

[本文引用: 1]

LI C, ANWAR S, HOU J, et al

Underwater image enhancement via medium transmission-guided multi-color space embedding

[J]. IEEE Transactions on Image Processing, 2021, 30: 4985- 5000

DOI:10.1109/TIP.2021.3076367      [本文引用: 3]

REN T, XU H, JIANG G, et al

Reinforced swin-convs transformer for simultaneous underwater sensing scene image enhancement and super-resolution

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 4209616

DOI:10.1109/tgrs.2022.3205061      [本文引用: 3]

ZHANG W, ZHOU L, ZHUANG P, et al

Underwater image enhancement via weighted wavelet visual perception fusion

[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2024, 34 (4): 2469- 2483

DOI:10.1109/TCSVT.2023.3299314      [本文引用: 3]

KHAN M R, MISHRA P, MEHTA N, et al. Spectroformer: multi-domain query cascaded transformer network for underwater image enhancement [C]// IEEE/CVF Winter Conference on Applications of Computer Vision. Waikoloa: IEEE, 2024: 1443–1452.

[本文引用: 3]

YANG M, SOWMYA A

An underwater color image quality evaluation metric

[J]. IEEE Transactions on Image Processing, 2015, 24 (12): 6062- 6071

DOI:10.1109/TIP.2015.2491020      [本文引用: 1]

PANETTA K, GAO C, AGAIAN S

Human-visual-system-inspired underwater image quality measures

[J]. IEEE Journal of Oceanic Engineering, 2015, 41 (3): 541- 551

DOI:10.1109/joe.2015.2469915      [本文引用: 1]

/