基于改进CycleGAN的水下桥墩裂缝图像生成
Underwater bridge pier crack image generation based on improved CycleGAN
通讯作者:
收稿日期: 2024-09-26
基金资助: |
|
Received: 2024-09-26
Fund supported: | 重庆市自然科学基金创新发展联合基金资助项目(CSTB2024NSCQ-LZX0024);重庆市教育委员会科学技术研究资助项目(KJZD-K202300711);重庆市研究生科研创新资助项目(CYS240489). |
作者简介 About authors
吕振鸣(2000—),男,硕士生,从事水下机器人研究.orcid.org/0009-0009-3520-7523.E-mail:
基于深度学习的水下桥墩裂缝检测依赖大量的裂缝图像,然而桥墩裂缝稀缺且受水体环境干扰导致裂缝图像质量不佳,为此提出改进的CycleGAN网络用于生成水下桥墩裂缝图像数据. 通过水下机器人采集水下桥墩壁面图像数据,结合桥梁裂缝数据构建数据集. 为了保证生成数据质量,在CycleGAN的生成器中添加scSE注意力,并在颈部处添加DehazeFormer模块,使生成的水下桥墩裂缝的图像质量提升,在特征空间中具有更好的分布和区分度. 采用像素感知判别器对生成的图像进行精准判别. 采用所提方法,水下图像质量UIQM、水下色彩质量UCIQE和峰值信噪比PSNR分别达到0.818、0.443和24.673,生成的水下桥墩裂缝效果优于其他主流图像转换算法的. 为了验证裂缝图像质量,结合机器人采集的水下桥墩裂缝数据,采用目标检测任务对比生成的水下图像质量和真实的水下桥墩裂缝质量,结果表明,F1分数和mAP50指标分数相差均小于0.1%. 所提方法有望解决目标检测任务数据不足问题,为水下桥墩的安全评估提供有力的数据支持.
关键词:
Deep learning-based underwater bridge pier crack detection relies heavily on a large number of crack images. However, pier cracks are scarce and disturbed by the water environment, resulting in poor crack image quality. Thus, an improved CycleGAN network was proposed to generate underwater bridge pier crack image data. Underwater bridge pier wall image data were collected by an underwater robot and combined with bridge crack data to form a dataset. The scSE attention was added to the generator of CycleGAN, and the DehazeFormer module was added at the neck, to ensure the quality of the generated data. These enhancements improved the quality of the generated underwater bridge pier crack images, enabling better distribution and discriminative ability in the feature space. A pixel-aware discriminator was used to accurately discriminate the generated images. When compared with mainstream image conversion algorithms, the proposed method demonstrated superiority in terms of underwater image quality (UIQM), underwater color quality (UCIQE), and peak signal-to-noise ratio (PSNR). The UIQM score reached 0.818, the UCIQE score reached 0.443, and the PSNR metric score reached 24.673. To verify the crack image quality, target detection tasks were performed using both the generated underwater images and real underwater bridge pier crack data collected by the robot. The results showed that the F1 score and mAP50 indicator scores differed by less than 0.1%. The proposed method was expected to solve the problem of insufficient data for target detection tasks and provide strong data support for the safety assessment of underwater bridge piers.
Keywords:
本文引用格式
吕振鸣, 董绍江, 何婧瑶, 杨金龙, 张佳伟.
LV Zhenming, DONG Shaojiang, HE Jingyao, YANG Jinlong, ZHANG Jiawei.
一些学者通过深度学习方法处理数据集来扩充数据,Fan等[4]提出迁移学习方法MA-AttUNet,利用多级对抗传递网络实现裂纹图像特征的知识转移,可以将从源域中学到的先验知识应用于目标域实现水下裂纹图像分割,但没有从根本上解决裂缝数据稀缺的问题. Huang等[5]通过CycleGAN方法将大坝裂缝图像转换成水下大坝裂缝图像,缓解了水下大坝数据稀缺的问题,但图像有雾呈现蓝绿色. Ye等[6]为了解决水下结构检测不准、模型性能较差的问题,提出使用CycleGAN和Retinex方法将陆地结构缺陷转换为高质量的水下结构缺陷图像,但这种方法过于繁琐. 程风雯等[7]提出基于深度卷积生成对抗网络(deep convolutional generative adversarial networks,DCGAN)的水下结构物表面缺陷图像生成方法,改进损失函数,建立水下结构物表面缺陷图像的生成,但结果与实际的水下环境裂缝差异较大. 王桂平等[8]使用迁移学习方法解决桥梁表观病害数据缺失的问题,提高了病害识别率,但未从根本上解决数据缺失的问题. 针对盾构隧道衬砌的渗漏区缺陷的分类,Zhao等[9]通过添加缩放图像来放大泄漏区域图像数据集,并在分类数据集中实现数据增强以丰富数据库,增强后的分类数据集包含
足够数量数据集是检测水下桥墩裂缝模型训练的一个重要条件,但数据的质量也不能忽视,其容易影响检测模型训练的效果. 水下桥墩裂缝的图像通常受到水质、光照条件、散射、噪声等多种因素的影响,使得裂缝的准确检测和分析变得异常困难. 马金祥等[10]提出基于改进的暗通道先验的水下大坝裂缝图像自适应增强算法,有效消除了水下图像的噪声,增强了图像的清晰度,但是对光照不均匀的水下裂缝的恢复较差. Xin等[11]利用自适应直方图均衡将水下图像的不均匀光照区域变为均匀光照区域,实现了库坝裂缝的图像增强,但去雾性能较弱. Qi等[12]通过全局光照平衡、图像色彩校正、细节增强等一系列算法对水下光学图像进行预处理,针对长距离输水工程的混凝土结构的微裂缝实现增强,但预处理耗时较长且繁琐. 雍子叶等[13]提出融入注意力机制的弱监督水下图像增强算法,但是算法的鲁棒性有待加强. 范新南等[14]提出仿生水下生物视觉的大坝裂缝图像增强算法,借鉴生物视觉亮度调节性改善裂缝图像的亮度非均匀问题,但仿生方法需要复杂的设计来模拟生物过程. 温佩芝等[15]提出融合生成对抗网络(GAN)和优化卷积神经网络(CNN)的水下图像增强技术,有效解决了水下图像的雾化模糊和色彩偏差问题,但该方法在图像增强过程中仍存在局部失真和色彩偏差的问题.
本研究添加scSE注意力和Dehazeformer模块改进CycleGAN[16]的生成器生成水下风格的桥墩裂缝数据集,采用全局局部判别模块和像素注意力改进判别器判别生成的裂缝数据. 利用水下机器人采集的水下桥墩壁面图像和公开的陆地裂缝数据集,训练并测试改进的模型,生成水下裂缝图像,扩充数据. 结合水下机器人采集的真实水下桥墩裂缝数据进行水下图像质量评估实验、水下图像色彩评估实验、峰值信噪比指标评估实验验证生成的数据质量.
1. 基于改进CycleGAN的水下桥墩裂缝图像生成方法
CycleGAN是GAN的变体,其核心思想是在训练过程中引入循环一致性损失作为约束条件,使模型能够更全面地学习2个领域之间的关系映射,从而降低模式崩溃的可能性. CycleGAN 的最大优势在于不需要配对的数据集即可实现2个不同图像域的转换. CycleGAN利用2个生成器和判别器对2个图像域进行转换,如图1所示,通过生成器1将A域表示的陆地裂缝图像转换为B域的水下桥墩裂缝图像. 再经由判别器2对B域水下桥墩壁面的图像(B1)进行判别,至此完成一次循环. 生成器2将B1转换为A1域,判别器1会对A和A1进行判别,逆向循环过程完成.
图 1
图 1 水下桥墩裂缝生成网络框架
Fig.1 Network framework for crack generation in underwater bridge piers
1.1. 生成器
水下环境容易受到光线折射以及水中杂质的干扰,故生成器选择UNet作为主体框架,可以更好地保留图像的细节信息,如图2(a)所示. 为了缓解水下环境对生成的水下桥墩裂缝的效果,对生成器进行改进,主要分为2个部分. 一部分是空间通道挤压与激励(scSE)注意力[17]机制(见图2(c)),scSE注意力在空间和通道维度上同时调节特征图的重要性,使得生成器能够更加专注于水下桥墩壁面图像中关键的裂缝区域,可以显著提升水下桥墩裂缝图像的生成效果. 通过通道Channel Squeeze-and-Excitation(cSE)和空间Spatial Squeeze-and-Excitation(sSE)模块,scSE机制增强了对重要陆地裂缝细节和空间结构的关注,使生成器能够更精准地捕捉裂缝的形态和细节,同时减少背景噪声和干扰. 这种结构优化提高了图像的清晰度和真实感,确保生成的水下桥墩裂缝图像更具视觉准确性和细节表现. 另一部分添加DehazeFormer模块[18]至生成器的瓶颈. 它改进了Swin Transformer模块[19],引入SK融合层和软重建层以替代拼接融合层和全局残差学习,提升了模型对裂缝区域的重建效果,尤其在处理重建图像中的散斑时表现更为出色. SK融合层的采用使得模型能够更灵活地整合多尺度信息,更好地捕捉水下桥墩裂缝图像中的结构和特征. 软重建层的引入进一步增强了模型对复杂场景的适应性,使得重建结果更为真实和清晰.
图 2
图 2 所提出的水下桥墩裂缝生成CycleGAN网络框架
Fig.2 CycleGAN network framework for generating cracks in underwater bridge piers
1.2. 像素感知判别器
判别器对于CycleGAN来说至关重要,水下环境过于复杂致使生成的桥墩裂缝受到干扰,质量降低,为此,本研究提出像素感知鉴别器来判别生成的裂缝质量,如图2(d)所示. 像素感知判别器能够更加精确地评估生成图像的真实性,通过关注像素级别的细微差异,有助于减少误判和提高去雾效果的准确性. 首先,该判别器结合了全局和局部信息,在评估图像时不仅考虑了整体结构,还关注了细节特征,从而使得生成图像更加真实且保留了原始裂缝的形状和纹理. 其次,采用膨胀卷积[22] 替换原来的卷积,可以提高判别器对输入图像的整体特征的感知能力,从而更好地判断图像的真实性,同时,将膨胀卷积放在判别器的入口处有助于增强对这些重要特征的捕捉能力. 最后,像素注意力的引入提高了生成图像和判别图像的像素区分度,使其在复杂水下环境中仍能有效地去除雾化效果,从而提高整体的水下裂缝图像去雾性能. 像素感知判别器的综合结果如下:
式中:
2. 损失函数
2.1. 对抗性损失
对抗性损失主要是为了更准确地提取陆地裂缝的特征,使用最小二乘损失来训练网络,损失函数表达式如下:
式中:上标的G、L分别表示全局和局部,G和F为生成器,用于将陆地裂缝转换为水下桥墩裂缝图像和将水下桥墩裂缝图像转换为陆地裂缝图像;
2.2. 循环一致性损失
原始 GAN 学习映射以生成在目标域中分布相同的输出,它可以将给定的输入映射到目标域中的任何随机空间. 因此,GAN的训练损耗不能保证给定输入产生所需的输出. 循环一致性损失是有效的正则化方法,用于训练水下裂缝图像去雾增强网络. 计算输入图像和通过生成器产生的循环图像之间的差异,促使生成的图像在经过循环后能够尽可能保持原始输入图像的信息和细节,提高去雾图像的质量和清晰度. 循环一致性损失表达式如下:
式中:
2.3. 相同损失
由于水下裂缝图像存在雾化且易受光线干扰,利用身份映射损失[14]保留输入和输出纹理的一致性. 身份映射损失可以表示为
总损失函数是上述3种损失的线性组合:
经消融实验测试,
3. 水下桥墩裂缝图像生成实验
使用改进的CycleGAN将陆地混凝土桥梁裂缝转换为水下桥墩裂缝,在捕捉陆地裂缝图像纹理细节的同时,也起到图像增强的效果. 为了验证模型的可行性,挑选几种基于CycleGAN改进的图像转换算法模型(CycleGAN、Cycle-Dehaze[23]、Cycle-SNSPGAN[24]、UCL-Dehaze[25])作为对比,通过峰值信噪比(peak signal to noise ratio, PSNR)、水下彩色图像质量评估(underwater color image quality evaluation, UCIQE)[26]、水下图像质量评价指标(underwater image quality measures, UIQM)[27]等指标定量分析实验结果. 为了验证各个模块的效果,也对提出的模型进行消融实验.
3.1. 实验设置及数据集
本实验基于Linux系统、Pytorch环境. 在配置有15vCPU Intel(R) Xeon(R) Platinum 8474P CPU@2.60 GHz和NVIDIA RTX4090 (24 G) 的计算机上使用Ubuntu20.04操作系统,本实验的模型在PyTorch 1.10.0,Cuda11.3框架上完成. 输入图像的尺寸为256×256像素、训练轮数为200、Batchsize为8、使用Adam优化器,学习率为
CycleGAN网络不需要配对的图像来训练,可采用公开裂缝数据集[28]. 作为数据集A,共约
图 3
图 3 水下桥墩裂缝采集实验设备及采集数据过程
Fig.3 Underwater bridge pier image data acquisition equipment and data collection process
图 4
图 4 改进的CycleGAN生成的数据集和真实水下桥墩裂缝数据
Fig.4 Dataset generated through improved CycleGAN and real underwater bridge pier crack data
3.2. 定量分析
采用2种无参考指标(水下图像质量评价指标UIQM、水下图像颜色质量评价UCIQE),同时参考峰值信噪比PSNR对不同算法进行测量. 表达式分别如下:
式中:MSE为实像x和平移图像y的均方误差;m和n为图像大小,
式中:
为了更直观地展现陆地与水下环境的差异性,对陆地裂缝和水下桥墩壁面进行评估,由于UIQM和UCIQE指标是针对水下环境,PSNR指标为参考图像指标,故不采用这3个指标评估两者的差异性,而选择自然图像质量评估器NIQE[29]指标进行评估. NIQE是基于图像自然场景统计特性(natural scene statistic,NSS)的视觉质量评价指标,它的优势在于无须与参考图像进行比较即可评估图像质量. 这一评估方法依赖于多变量高斯(multivariate Gaussian,MVG)模型,该模型能够捕捉自然图像的关键统计特征,并构建起一个质量评估框架. NIQE计算图像的局部属性,例如梯度的强度和方向,并将这些属性与从大量高品质自然图像中提取的统计数据模型进行对比. 量化图像特征与该属性之间的偏差,NIQE能够评估图像质量,较小的偏差表明图像质量更接近于高质量的自然图像,而较大的偏差则暗示着较低的图像质量.
式中:
陆地裂缝NIQE指标为3.875,水下桥墩壁面NIQE指标为4.213. 通过对比发现陆地裂缝的质量较优,水下桥墩壁面的质量较低,两者之间存在一定的差异性.
采用水下机器人采集的
表 1 多种水下桥墩裂缝生成算法的定量比较
Tab.1
模型 | UIQM | UCIQE | PSNR |
CycleGAN | 0.723 | 0.339 | 18.902 |
Cycle-Dehaze | 0.790 | 0.314 | 20.194 |
Cycle-SNSPGAN | 0.812 | 0.357 | 22.037 |
UCL-Dehaze | 0.684 | 0.325 | 21.402 |
所提方法 | 0.818 | 0.443 | 24.673 |
3.3. 视觉比较分析
通过主观视觉方法来验证提出方法的优势,如图5所示,选择几种不同背景的陆地混凝土裂缝图片进行迁移. 可以看出,CycleGAN的处理效果整体一般,对于一些边缘的细节处理较差,图像本身的边缘与中间差异较大. Cycle-Dehaze算法对于低光照以及一些水体杂质产生的雾化有一定的改善,但是整体增强过度,结果偏亮,且图像出现过饱和情况. Cycle-SNSPGAN对于边缘细节部分有所增强,但是图像整体改善不大,仍然偏暗,对比度低. UCL-Dehaze对于图像较暗的问题有所改善,但是却大面积缺少了原来水下桥墩的纹理信息. 所提方法既保留了陆地裂缝信息,也保留了水下桥墩壁面的轮廓信息,图像的亮度以及色彩均有所改变,整体图像的质量有一定提升.
图 5
为了验证真实情况下出现的裂缝和所提方法所转换的裂缝之间是否存在差异,通过测试水下机器人采集到的50张真实水下桥墩裂缝数据比较UCIQE和UIQM指标分数,从而判断转换的水下桥墩裂缝质量的好坏,结果如表2所示. 其中,粗体表示最高分数. 可以看出,所提方法产生的水下桥墩裂缝数据集的UIQM、UCIQE指标分别比实际采集的水下桥墩裂缝图像高0.017和0.020,证明其图像质量接近真实的水下桥墩裂缝.
表 2 真实水下桥墩裂缝与所提方法生成裂缝的无参考指标评估结果
Tab.2
数据 | UIQM | UCIQE |
真实水下桥墩裂缝 | 0.801 | 0.423 |
所提方法产生的裂缝 | 0.818 | 0.443 |
3.4. 消融实验
为了验证各个模块的有效性,进行消融实验. 研究改进的CycleGAN的生成器的各个模块对增强水下桥墩裂缝质量的效果以及像素感知判别器对裂缝质量提升的影响. 将scSE注意力添加至CycleGAN的生成器中,DehazeFormer模块(DF Block)嵌入到U-Net的颈部,有利于生成器生成高质量水下桥墩裂缝图像. 分别去除每一个模块进行实验评估,效果如表3所示,视觉结果如图6所示. 表3中,粗体表示最高分数,t为消耗时间,parm为参数量. 可以看出,2个模块的添加均对整体模型效果有所改善. 去除scSE注意力后图像UIQM、UCIQE指标分别下降了0.009、0.023,训练所消耗时间降低了0.301 h,参数量降低了5.156×106,图像整体亮度提升一般,PSNR指标下降2.756,存在一些噪声. 去除DehazeFormer模块后,UIQM、UCIQE指标分别下降了0.039、0.061,消耗时间下降了0.533 h,参数量降低了约10×106,但图像较暗,PSNR指标下降6.344,边缘细节不明显. 去除像素感知判别器后,UIQM、UCIQE指标分别下降了0.016、0.024,消耗时间降低了0.202 h,参数量仅下降了1.146×106,图像颜色存在失真,颜色过于增强,PSNR指标下降1.844,噪声明显增多. 改进后模型得到的整体图像细节较为明显,噪声较少,亮度雾化效果都有所改善,获得了最高的指标分数.
表 3 消融实验指标结果
Tab.3
模型 | UIQM | UCIQE | PSNR | t/h | Parm/106 |
不含scSE注意力 | 0.809 | 0.420 | 21.917 | 3.826 | 109.492 |
不含DehazeFormer模块 | 0.779 | 0.382 | 18.329 | 3.594 | 104.891 |
不含PA判别器 | 0.802 | 0.419 | 22.829 | 3.925 | 113.502 |
完整模型 | 0.818 | 0.443 | 24.673 | 4.127 | 114.648 |
图 6
图 6 改进CycleGAN生成器的消融实验视觉比较
Fig.6 Visual comparison of improved CycleGAN generator ablation experiments
4. 目标检测评估
目标检测的目的是检测图像中感兴趣的物体并确定他们的类别和位置. 通过改进的CycleGAN网络生成水下桥墩裂缝,弥补了水下桥墩裂缝数据稀缺的问题,为后续的目标检测算法在水下机器人工作中的部署奠定基础. RT-DETR实时性能卓越、高精度、无需NMS后处理并且可扩展性较好;YOLOv8在速度和精度的平衡上较优,且一直持续迭代更新. 2种检测方法都能为水下结构检测提供强有力的支持. 为了验证所提方法在目标检测任务中的效果,采用RT-DETRr18[30]和YOLOv8n进行效果验证.
在所提方法生成的裂缝数据中抽取
表 4 生成样本和真实样本的目标检测效果验证
Tab.4
数据 | 模型 | Precision/% | Recall/% | F1/% | mAP/% |
生成样本 | YOLOv8n | 88.7 | 87.5 | 88.1 | 86.2 |
RT-DETRr18 | 88.9 | 88.1 | 88.5 | 86.9 | |
真实样本 | YOLOv8n | 89.2 | 86.6 | 88.0 | 85.4 |
RT-DETRr18 | 89.3 | 87.8 | 88.5 | 86.8 |
图 7
图 7 生成的水下桥墩裂缝的目标检测视觉效果
Fig.7 Visualization of target detection of generated underwater bridge pier cracks
为了凸显生成样本的有效性,将所提方法转换出的水下桥墩裂缝数据的测试集替换为真实的由水下机器人采集的水下桥墩裂缝数据,生成样本和真实样本的目标检测效果验证如表4所示. 其中,粗体表示最好的. 可以看出,真实样本的准确率高于生成样本的准确率,但是在其他3个指标的得分上,生成样本分数更高,总体相差不大. 同时,利用可视化注意力热图Grad-CAM++ (Gradient-weighted Class Activation Mapping Plus Plus) [31]创建热图矩阵,以可视化和理解深度学习模型在执行预测时如何关注输入图像中的重要特征. 通过Grad-CAM++,不仅能够直观展示模型是否捕捉到了裂缝的关键特征,并通过热图的形式,突出显示了对模型输出结果影响最大的像素区域. 这种可视化策略不仅增强了对模型决策过程的理解,而且为进一步优化模型提供了有力的视觉支持,另外还可以体现出所提方法产生的水下桥墩裂缝和真实水下桥墩裂缝的质量. 具体来说,颜色的深浅代表图像中每个位置的重要性,颜色越深,表示模型对该区域的积极反应越强烈,即模型对该区域的关注度越高.
如图8所示为2种裂缝的示例,不难发现,图像中的裂缝区域几乎全部用红色显示,且非裂缝区域部分的颜色较弱,说明目标检测算法对2种裂缝的注意是几乎相同的. 综合来看,转换的数据质量和真实数据相差不大,甚至更优,说明方法是有效的. 目标检测实验证明,所提算法能够有效运用在实际目标检测任务上.
图 8
图 8 检测水下桥墩裂缝任务下的热力图对比
Fig.8 Comparison of thermograms under task of detecting cracks in underwater bridge pier
5. 结 论
(1)通过添加scSE注意力以及Dehazeformer模块至CycleGAN网络的生成器,改进CycleGAN网络判别器,以生成高质量水下桥墩裂缝.
(2)与先进的图像转换的增强算法进行对比,并进行目标检测任务测试,证明了改进的CycleGAN能获得较优的水下桥墩裂缝图像,所提方法可以运用在实际目标检测任务中.
(3)通过开源的陆地桥梁裂缝数据以及水下机器人采集的水下桥墩壁面数据实现了水下桥墩裂缝的转换,通过这种方法可以弥补水下桥墩裂缝数据稀缺的问题,为裂缝检测模型提供充足的数据,也能提高后续水下桥墩的检测维护效率.
实验结果表明所提检测算法的精度不佳,未来将围绕水下桥墩裂缝的特性改进裂缝检测算法以提高检测精度和效率,增加裂缝检测的精度.
参考文献
Identification of underwater structural bridge damage and BIM-based bridge damage management
[J].DOI:10.3390/app13031348 [本文引用: 1]
Detecting underwater concrete cracks with machine learning: a clear vision of a murky problem
[J].DOI:10.3390/app13127335 [本文引用: 1]
Continuous strain monitoring in the rock foundation of a large gravity dam
[J].DOI:10.1007/BF01033277 [本文引用: 1]
An underwater dam crack image segmentation method based on multi-level adversarial transfer learning
[J].DOI:10.1016/j.neucom.2022.07.036 [本文引用: 1]
Underwater dam crack image generation based on unsupervised image-to-image translation
[J].DOI:10.1016/j.autcon.2024.105430 [本文引用: 1]
An advanced AI-based lightweight two-stage underwater structural damage detection model
[J].DOI:10.1016/j.aei.2024.102553 [本文引用: 1]
基于DCGAN的水下结构物表面缺陷图像生成
[J].DOI:10.11988/ckyyb.20220421 [本文引用: 1]
Image generation for surface defects of underwater structures based on deep convolutional generative adversarial networks
[J].DOI:10.11988/ckyyb.20220421 [本文引用: 1]
基于迁移学习的桥梁表观病害检测技术研究
[J].
A bridge surface distress detection technology based on transfer learning
[J].
Deep learning-based classification and instance segmentation of leakage-area and scaling images of shield tunnel linings
[J].
暗通道先验的大坝水下裂缝图像增强算法
[J].DOI:10.11834/jig.20161202 [本文引用: 1]
Underwater dam crack image enhancement algorithm based on improved dark channel prior
[J].DOI:10.11834/jig.20161202 [本文引用: 1]
A fine extraction algorithm for image-based surface cracks in underwater dams
[J].DOI:10.1088/1361-6501/ac9db2 [本文引用: 1]
Micro-concrete crack detection of underwater structures based on convolutional neural network
[J].DOI:10.1007/s00138-022-01327-5 [本文引用: 1]
融入注意力机制的弱监督水下图像增强算法
[J].
Weakly supervised underwater image enhancement algorithm incorporating attention mechanism
[J].
一种仿水下生物视觉的大坝裂缝图像增强算法
[J].
A dam crack image enhancement algorithm based on underwater biological vision
[J].
基于生成式对抗网络和多级小波包卷积网络的水下图像增强算法
[J].
Underwater image enhancement algorithm based on GAN and multi-level wavelet CNN
[J].
Vision transformers for single image dehazing
[J].DOI:10.1109/TIP.2023.3256763 [本文引用: 1]
Cycle-SNSPGAN: towards real-world image dehazing via cycle spectral normalized soft likelihood estimation patch GAN
[J].DOI:10.1109/TITS.2022.3170328 [本文引用: 1]
UCL-dehaze: toward real-world image dehazing via unsupervised contrastive learning
[J].DOI:10.1109/TIP.2024.3362153 [本文引用: 1]
An underwater color image quality evaluation metric
[J].DOI:10.1109/TIP.2015.2491020 [本文引用: 1]
Human-visual-system-inspired underwater image quality measures
[J].DOI:10.1109/JOE.2015.2469915 [本文引用: 1]
Automatic pixel-level crack detection and measurement using fully convolutional network
[J].DOI:10.1111/mice.12412 [本文引用: 1]
A color image fusion model by saturation-value total variation
[J].DOI:10.1016/j.cam.2024.115832 [本文引用: 1]
/
〈 |
|
〉 |
