工程设计学报, 2024, 31(6): 707-715 doi: 10.3785/j.issn.1006-754X.2024.03.201

【特约专栏】“双碳”背景下新型能源装备设计、制造、运维关键技术及其应用

基于点特征匹配的电力多模态图像配准方法

钟宇峰,1, 林昊1, 林楠1, 汪铭峰1, 郭世晓1, 洪兆溪2, 孔麒,,2, 冯毅雄2

1.国网浙江省电力有限公司 杭州供电公司,浙江 杭州 310000

2.浙江大学 机械工程学院,浙江 杭州 310027

Power multi-modal image registration method based on point feature matching

ZHONG Yufeng,1, LIN Hao1, LIN Nan1, WANG Mingfeng1, GUO Shixiao1, HONG Zhaoxi2, KONG Qi,,2, FENG Yixiong2

1.Hangzhou Power Supply Company, State Grid Zhejiang Electric Power Co. , Ltd. , Hangzhou 310000, China

2.School of Mechanical Engineering, Zhejiang University, Hangzhou 310027, China

通讯作者: 孔 麒(1998—),男,硕士生,从事复杂装备状态预测、图像识别与人工智能等研究,E-mail: 22125143@ zju.edu.cn,https://orcid.org/0009-0000-7377-6879

收稿日期: 2023-09-07   修回日期: 2023-10-13  

基金资助: 浙江省重点研发计划资助项目.  2022C01238.  2021C01110
国网杭州供电公司群众性创新项目.  5211HZ230015

Received: 2023-09-07   Revised: 2023-10-13  

作者简介 About authors

钟宇峰(1989—),男,高级工程师,硕士,从事变电运维、带电检测与巡检机器人等研究,E-mail:yfz_1989@sina.com , E-mail:yfz_1989@sina.com

摘要

电力设备的可见光图像与红外图像配准作为一种常见的多模态数据配准应用模式,在变电站巡检过程中具有重要的应用价值。但是,由于巡检机器人与人工捕捉的数据在分辨率、视角及光照条件上的差异,电力设备的可见光图像与红外图像的配准存在较大挑战。针对2种图像在特征层级存在同一性,提出了一种基于电力设备边缘点特征的尺度不变特征变换算法,通过构建双边特征描述符并将双边特征点之间的距离作为置信度约束,以减少可见光图像与红外图像的模态差异,最终实现变电站主配网关键设备多源异构图像数据的高精度配准。实验结果表明,所提出的方法对分辨率、视角变化具有良好的鲁棒性,在电力设备多模态图像的实际配准应用中表现出优异性能。研究结果为提升电力设备巡检的智能化和可靠性提供了理论支撑和工程实践指导。

关键词: 变电站巡检 ; 多模态 ; 图像配准 ; 边缘点特征 ; 尺度不变特征变换

Abstract

As a common application mode of multi-modal data registration, the registration of visible images and infrared images of power equipment has significant application value in substation inspection process. However, due to the differences in resolution, perspective and lighting conditions between data captured by inspection robots and humans, the registration of visible images and infrared images of power equipment faces considerable challenges. Aiming at the feature-level consistency between two types of images, a scale-invariant feature transform algorithm based on the power equipment edge point features was proposed. By constructing bilateral feature descriptors and incorporating the distance between bilateral feature points as a confidence constraint, the modal difference between visible images and infrared images was reduced, and the high-precision registration of multi-source heterogeneous image data of critical equipment for substation primary and secondary power distribution networks was achieved. The experimental results showed that the proposed method exhibited strong robustness against variations in resolution and perspective, delivering excellent performance in practical applications of multi-modal image registration for power equipment. The research results provide theoretical support and engineering guidance for enhancing the intelligence and reliability of power equipment inspection.

Keywords: substation inspection ; multi-modal ; image registration ; edge point feature ; scale-invariant feature transform

PDF (5295KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

钟宇峰, 林昊, 林楠, 汪铭峰, 郭世晓, 洪兆溪, 孔麒, 冯毅雄. 基于点特征匹配的电力多模态图像配准方法[J]. 工程设计学报, 2024, 31(6): 707-715 doi:10.3785/j.issn.1006-754X.2024.03.201

ZHONG Yufeng, LIN Hao, LIN Nan, WANG Mingfeng, GUO Shixiao, HONG Zhaoxi, KONG Qi, FENG Yixiong. Power multi-modal image registration method based on point feature matching[J]. Chinese Journal of Engineering Design, 2024, 31(6): 707-715 doi:10.3785/j.issn.1006-754X.2024.03.201

变电站主配网关键设备运行状态的检测与分析是电网运行维护的重要工作之一。随着国内特别是经济发展前沿城市用电量的快速增加,变电站分布愈加复杂。变电站数量的快速上升导致设备检修人员严重短缺,且变电站设备故障率较高,元器件更换成本极高[1]。在这种背景下,无人巡检机器人成为电力智能故障诊断系统的重要组成部分,有效地减少了人力需求,提高了检测效率。巡检机器人配备多模态图像传感器,可捕捉电力设备运行状态下的可见光图像和红外图像;同时,可在机器人拍摄死角位置增加人工手持式设备,以完善对整个变电站主配网设备的全面监测[2]。上述基于计算机视觉的自动化故障识别系统大多采用多模态图像传感器和图像配准、识别等图像处理技术,并由计算机处理数据以形成反馈。

多模态图像配准作为图像融合、目标检测等技术应用的关键前提,是实现电力设备高精度和高鲁棒性检测的重要基础[3]。多模态图像配准是通过使用某种算法与评估标准,将同一场景中不同分辨率、视角下的一幅或多幅图像(或局部)最优映射到目标图像上。可见光图像具有丰富的细节纹理信息,而红外图像不受光照影响,其低对比度、低信噪比特性能够减少外界环境干扰对图像非均匀性的影响。因此,对电力设备的可见光图像与红外图像进行配准,可以丰富单幅图像中温度、结构等语义信息,为后续图像融合、图像识别等技术的应用奠定基础。

可见光图像与红外图像的成像原理差异较大,导致传统单模态图像配准方法的效果较差。此外,2种图像之间存在不同比例的相对平移、旋转和缩放,导致配准难度较大。目前,可见光图像与红外图像的配准方法主要包括基于区域、基于特征和基于深度学习三类[4]

基于区域的配准方法以参考图像为基础,通过极大化置信度指标来搜索待配准图像的最佳选择,同时将相似度作为待配准图像之间的相关性指标,并通过类似傅里叶变换在空间域或频域中展开。在空间域中,以互相关、互信息为代表的相关性在当下运用较多。Yang等[5]在不同光谱图像配准中引入归一化互相关思想,对不同模态的2幅图像对应块的相似性进行了计算。在频域中,基于傅里叶变换对多模态图像进行类相关计算,并通过比较边缘表示下频域内的互相关性来进行配准是应用较多的方法之一。

基于特征的配准方法是一种通过定义损失作为相似度并不断迭代优化损失来寻找特征匹配最优解的方法。常用的图像特征包括区域、边缘和角点等。通过将多模态图像特征进行像素级的展开并进行语义表示,转化为数学计算关系后基于相似度判断准则定义图像之间的匹配关系[6]。常用的特征表示信息包括特征描述符、特征向量和区域灰度值等。根据相同采集点位下多模态图像特征表示信息的不同特性,选取合适的几何变换关系即可实现最佳配准。

基于深度学习的配准方法通过深度网络模型对可见光图像与红外图像进行统一模态映射,以将其集中在一个新的置信度空间内,并利用神经网络对输入的多模态图像进行特征提取与相似度检测,以实现图像的配准。在配准过程中,定义损失函数并在神经网络训练中不断迭代,以改善多模态图像之间的映射关系,最终得到最优的配准结果[7]

以上3种配准方法在过去几年内得到了广泛的关注和应用,但电力设备的可见光图像与红外图像配准仍存在巨大挑战:第一,图像分辨率不同导致图像像素块之间的特征映射关系存在差异,造成匹配点不准确;第二,受环境条件变化的影响,可见光图像中可能存在相邻区域灰度差异较大的情况,导致特征点匹配过程中相似度差异较大[8];第三,巡检机器人不同拍摄视角导致的主方向定位误差会对图像配准造成不同程度的影响。

为解决上述问题,本文使用一种基于电力设备边缘点特征不变性的配准方法来进行可见光图像与红外图像的配准。首先,基于Canny边缘检测算法对电力设备的可见光图像与红外图像进行边缘划分,并通过设置阈值确定区域关键边缘特征;然后,基于尺度不变特征变换(scale invariant feature transform, SIFT)算法构建边缘特征关键点描述符并进行双边特征描述符匹配,通过计算最佳匹配点与次佳匹配点的距离,以去除明显错误的匹配,从而实现可见光图像与红外图像的配准。最后,通过变电站主网一次设备可见光图像与红外图像的配准应用来验证本文所提出方法的有效性。

1 可见光图像与红外图像的边缘特征检测

边缘检测是图像处理、分析领域的重要环节。图像边缘是指图像局部区域亮度显著变化的部分,该区域的灰度剖面可看作是一个阶跃,即从一个灰度值很小的缓冲区域急剧变化到另一个灰度相差较大的区域。传统的边缘检测算子,如Roberts、Sobel、Prewitt、Kirsch和Laplacian等算子,均是基于梯度方向导数的卷积算子,对噪声的高敏感性导致其在处理实际图像尤其是高噪声图像时效果并不理想[9]。1986年,Canny提出了边缘检测算子的三大准则(单边缘响应准则、信噪比准则和定位精度准则)并提出了Canny边缘检测算法[10]

Canny边缘检测算法不仅能快速找到图像中真实的边缘位置,还能准确地区分边缘与噪声,具备较低的检测错误率。此外,Canny边缘检测算法可将边缘定位在一个像素点上,而非像其他算法一样将边缘模糊成线条或区域,这对于本文所研究的电力场景具有较高的适应性。基于此,本文将使用Canny边缘检测算法对变电站主配网关键设备的显著边缘特征进行检测。具有对应关系的变电站主网一次设备的可见光图像与红外图像如图1所示。

图1

图1   变电站主网一次设备的可见光图像与红外图像

Fig.1   Visible image and infrared image of primary equipment of substation main network


1.1 基于高斯滤波器的图像平滑处理

通常情况下,边缘检测的目的是在保留原始图像属性的同时显著减小图像的数据规模[11]。Canny边缘检测是一种采用多级边缘检测技术的算法,旨在通过高斯滤波器对多模态图像进行区域平滑处理,以达到最佳的边缘检测效果。该方法通过计算信噪比与定位精度的最优乘积来捕捉图像中最为显著的边缘特征。

高斯滤波器是一种线性平滑滤波器,利用高斯函数弱化图像噪声并柔化细节。高斯滤波器的卷积核为二维高斯函数的离散近似。在图像处理领域,二维高斯函数可定义为:

Gx, y, σ=12πσ2exp-x2+y22σ2

式中:Gx, y, σ为二维高斯函数;x, y为图像中像素点的坐标;σ为控制图像边缘特征平滑程度的标准差,用于控制高斯滤波器的宽度。σ较小的高斯滤波器定位精度高且信噪比较低,导致图像中高频噪声的去除效果并不理想,但边缘特征明显;σ较大的高斯滤波器的处理效果则相反。

像素点x, y处的梯度矢量计算式可表示为:

G=G/xG/y

G的2个卷积模板滤波器分解为2个一维行列滤波器,分别表示为:

Gx=kxexp- x22σ2exp-y22σ2=h1xh2y
Gy=kyexp-y22σ2exp-x22σ2=h1yh2x

式中:k为常数,用于归一化处理;h1xh1y分别为xy方向上的一维高斯偏导数;h2xh2y分别为 xy方向上的高斯平滑项。

1.2 梯度幅值和梯度方向的计算

在完成对原始多模态图像的编码后,为确保图像中电力设备边缘特征序列中每一条信息的长度均相同,对数据进行特征缩放。

Canny边缘检测算法采用2×2邻域一阶偏导的有限差分方法,来计算平滑处理后边缘特征序列中各像素点的梯度幅值和梯度方向。其中,像素点x, yxy方向上的梯度分别表示为:

Pxx, y=Ix, y+1-Ix, y+Ix+1, y+1-Ix+1, y2
Pyx, y=Ix, y-Ix+1, y+Ix, y+1-Ix+1, y+12

式中:Pxx, yPyx, y分别为xy方向上的梯度,Ix, y为像素点x, y处的灰度值。

运用将直角坐标转换为极坐标的坐标变换公式,对多模态图像中的像素点进行梯度幅值和梯度方向的计算。其中,梯度幅值Mx, y用二阶范数表示:

Mx, y=Px2x, y+Py2x, y

梯度方向θx, y的计算式如下:

θx, y=arctan Pyx, y/Pxx, y

1.3 非极大值抑制

在获得了多模态图像中像素点的梯度幅值和梯度方向后,为实现对图像边缘的精确定位,需要对梯度幅值Mx, y的微小变化过程进行细化,即仅保留局部幅值变化最大的像素点。通过遍历图像中的像素点,去除非边缘像素点。若像素点是正负梯度方向上的局部邻域最大值,则保留该点,反之则进行抑制归零。

本文采用(3×3)像素的局部邻域,将该邻域的360°区域均匀地分为12个方向的子邻域。对梯度幅值阵列中的所有像素点进行梯度幅值的插值,即在每个像素点处,与沿其梯度方向的2个梯度幅值进行插值比较。以局部邻域的中心像素点为基准,将12个方向的子邻域表示为δx, y,并在δx, y上执行非极大值抑制操作。若中心像素点对应的梯度幅值小于其梯度方向上的2个插值点,则将抑制中心像素点对应的边缘像素点,不作为构建设备边缘的特征点。通过对多模态图像中的边缘像素点进行逐一遍历与非极大值抑制,最终保留置信度较高的边缘像素点,用于构建最终的边缘Nx, y。非极大值抑制(non-maximal suppression)的数学表达式为:

Nx, y=NMSMx, y, δx, y

1.4 基于双阈值的图像边缘确定

在完成非极大值抑制后,当前获取的边缘图像内已存在图像的强边缘,但仍可能存在一些由真实图像或图像噪音产生的虚边缘。因此,通过设置双阈值与当前边缘像素点的梯度幅值进行比较,以判断边缘属性。若当前边缘像素点的梯度幅值大于或等于高阈值,则将当前边缘像素点标记为强边缘并保留;若当前边缘像素点的梯度幅值介于高阈值与低阈值之间,则将当前边缘像素点标记为虚边缘且同样保留;若当前边缘像素点的梯度幅值小于或等于低阈值,则抑制当前边缘像素点,即需要舍弃。对于保留的虚边缘,通过判断虚边缘与强边缘是否连接来确定虚边缘最终是否需要保留。若虚边缘与强边缘连接,则将此虚边缘视作强边缘处理,否则视作虚边缘并进行抑制。

具体而言,对经过非极大值抑制和梯度直方图分类的边缘图像Nx, y进行分割,使用低阈值l和高阈值h分别得到低阈值边缘图像Clx, y和高阈值边缘图像Chx, y。由于Chx, y是基于较高的阈值生成的,因此其不包含虚边缘,但可能在边缘轮廓上存在间断。为了解决这一问题,可以利用Clx, y在均分的12个子邻域位置处寻找可连接边缘轮廓的边缘图像,直到Chx, y中的所有边缘轮廓均被成功连接。基于设置的不同阈值,使用Canny边缘检测算法对可见光图像和红外图像分别进行边缘检测,结果如图2图3所示。

图2

图2   基于不同阈值的可见光图像边缘检测结果

Fig.2   Edge detection results of visible image based on different thresholds


图3

图3   基于不同阈值的红外图像边缘检测结果

Fig.3   Edge detection results of infrared image based on different thresholds


图2图3结果可知,基于不同阈值的图像边缘检测结果存在较大差异,选择局部关键特征保留较为清晰且噪声较少的边缘检测结果,即阈值为0.024, 0.06时的边缘检测结果作为后续多模态图像配准的样本。

2 基于SIFT的多模态图像配准

SIFT算法在计算机视觉领域扮演着不可或缺的角色,其独特之处在于全面性和通用性[12]。首先,SIFT算法能够在多尺度下提取特征,这说明其可兼顾物体的微小细节和整体结构。无论物体是处于图像中的近处还是远处位置,利用SIFT算法均能捕捉到关键特征。其次,SIFT算法具备多方向性,能够应对物体在图像中因旋转角度不同而导致的映射关系识别困难的情况,故其具有强大的目标识别和图像匹配能力[13]。最后,SIFT算法还能够处理光照变化所导致的图像特征异常表示问题,这意味着在不同光照条件下SIFT算法均能正确地匹配特征点,不易受光照变化的干扰。

SIFT算法的优势不仅在于其特征提取能力,还在于其独有的特征描述方法。SIFT特征向量包含特征点周围区域的关键信息,这可使特征点之间的匹配更为精确,减少了误匹配的可能性。除了适用于处理静态图像外,SIFT算法还适用于动态场景中的图像处理,这可为物体跟踪和三维重建提供可靠的理论基础[14]。此外,SIFT算法在机器视觉和自动驾驶等领域也发挥着关键作用,为实现自主导航和环境感知提供了重要支持。综上所述,SIFT算法不仅具有优异的特征提取和描述能力,还适用于各种复杂环境,可为基于视觉识别的图像处理提供坚实的基础。

2.1 面向多模态图像的尺度空间构建

尺度空间构建的主要思路是利用不同尺度下的高斯模糊来模拟图像中不同大小的特征,并通过计算高斯差分来寻找局部极值点,这些局部极值点通常对应图像中的关键点。随后,通过进一步处理来提取关键点的描述符,实现尺度不变性和旋转不变性[15]

在完成对多模态图像的Canny边缘检测后,通过对边缘特征显著的图像进行多次高斯模糊来构建不同尺度下的高斯金字塔,高斯金字塔的每一层构成一个尺度,保证了SIFT算法对于不同大小的特征具有尺度不变性。其中,高斯模糊是通过高斯函数和卷积图像来构建的。将尺度空间定义为二维高斯函数Gx, y, σ与图像Fx, y的卷积:

Lx, y, σ=Gx, y, σ*Fx, y

高斯差分函数表示不同尺度下的图像差异,计算高斯金字塔中每相邻2层图像的差分,得到差分图像,可表示为:

DoGx, y, σ=Gx, y, bσ-Gx, y, σ

式中:b为尺度比例因子,通常取2

高斯金字塔是通过不断下采样生成的,每一层均包含上一层的下采样图像,即:

SmallerImagex, y, σ=OrginalImage2x, 2y, σ

式中:SmallerImagex, y, σ为下采样后的图像,OrginalImagex, y, σ为原始图像。

完成高斯金字塔的构建后,利用高斯差分函数建立高斯差分金字塔,用于检测多模态图像中的关键点。

2.2 图像边缘特征关键点检测

利用式(11)计算得到不同尺度下的高斯差分图像DoGx, y, σ,图像中的局部极值点即为不同尺度下的关键点,其定义应满足以下条件:

DoGx, y, σ>DoGx-1, y, σ  and  DoGx, y, σ>DoGx+1, y, σ
DoGx, y, σ>DoGx, y-1, σ and DoGx, y, σ>DoGx, y+1, σ
DoGx, y, σ>DoGx, y, σ-1 and DoGx, y, σ>DoGx, y, σ+1

为了准确定位关键点,须对初始关键点进行亚像素级别的精确定位,使用式(1)来近似关键点周围的图像区域并形成拟合模型,拟合模型的极值点即为关键点的精确位置。

在确定关键点的位置之后,利用Hessian矩阵来计算关键点的稳定性或误差。Hessian矩阵包含拟合模型的二阶导数信息,其特征值体现关键点周围的局部图像结构。若Hessian矩阵的特征值比较接近,则说明图像区域比较均匀,关键点位置比较稳定。Hessian矩阵Hx, y可表示为:

Hx, y=Dxxx, yDxyx, yDxyx, yDyyx, y

式中:Dxxx, yDxyx, yDyyx, y分别为高斯函数在极值点处沿不同方向的二阶偏导数。

2.3 图像边缘特征关键点主方向分配

在完成多模态图像边缘特征关键点的准确检测后,根据关键点处的梯度信息定义其主方向。首先,在关键点周围的局部图像区域内计算梯度信息,通常使用Sobel等算子来计算关键点周围局部邻域内每个像素点的梯度幅值和梯度方向。随后,按照梯度方向将关键点周围的像素点分布到一个方向直方图中,直方图通常被分成36个或更多的方向区间,以覆盖360°的方向范围[13,16]。本文选择具有最大梯度幅值的方向作为关键点的主方向,即对应方向直方图中的最大峰值。

关键点主方向分配的主要目的是尽量避免多模态图像角度差异所导致的边缘特征关键点映射关系混乱的情况,以保证SIFT算法能够在不同旋转角度下正确匹配关键点,强化了多模态图像边缘特征的旋转不变性,从而提高特征匹配的准确性。这一步骤使得SIFT算法在复杂场景和不同视角下仍能够可靠地识别相同的边缘特征关键点。

2.4 图像边缘特征关键点描述符构建

在关键点周围确定以关键点为中心的圆形关键区域,并计算区域内每个像素点的梯度幅值和梯度方向。这些关键区域内的梯度信息用于构建包含梯度方向和梯度幅值直方图的特征向量,特征向量的维度通常为128维[17]

将特征向量中的梯度方向进行方向加权计算,以确保特征描述的旋转不变性。本文通过将每个梯度方向分配到最近的主方向来实现梯度方向向主方向的旋转操作,形成多模态图像边缘特征关键点的描述符,增加了特征的鲁棒性。同时,对特征向量进行归一化处理,以保证特征向量不受尺度变化的影响。此外,为了降低计算和存储成本,对特征向量进行排序并保留前N个最大值。根据经验,通常取N=8[18]。变电站主网一次设备可见光图像与红外图像中边缘特征关键点描述符的分布情况如图4所示。

图4

图4   可见光图像与红外图像边缘特征关键点描述符的分布情况

Fig.4   Distribution of edge feature keypoint descriptors for visible image and infrared image


2.5 图像边缘特征关键点匹配

关键点匹配的目标是找到多模态图像之间具有相似特征的关键点对,通过梯度图像对齐策略使关键点在不同尺度、旋转和光照条件下仍能具有较高的匹配鲁棒性[19]

对多模态图像之间的所有关键点进行逐点比较并计算关键点之间的距离,将其作为多模态图像之间相似性的评价指标。本文采用欧式距离,其计算式如下:

DVi, Vv=Viw-Vvw2

式中:DVi, Vv多模态图像之间关键点对的距离,ViVv分别红外图像和可见光图像中关键点的坐标向量,w向量的维度。

在完成所有关键点对距离的计算后,找到距离最小的一对关键点,即为最佳匹配点,可表示为:

BestMatch: argminDVi, Vv

式中:argmin求最小值的索引。

在某些情况下,最佳匹配点可能不够可靠,将其距离与次佳匹配点的距离进行比较,若两者间的差异较大,则证明最佳匹配点的映射关系是可靠的。该过程通过计算最佳匹配点与次佳匹配点之间的距离比R来实现,若两者的距离比R<0.8,则说明最佳匹配点可接受[20-21]

R=DVib, VvbDVis, Vvs

式中:VibVis分别为红外图像中的最佳匹配点和次佳匹配点,VvbVvs分别为可见光图像中的最佳匹配点和次佳匹配点。

3 实验验证

本文实验在Windows11操作系统上开展,GPU(graphics processing unit,图像处理器)为NVIDIA GeForce RTX 3060。使用MATLAB软件搭建实验环境。电力设备多模态图像数据来自国网浙江省电力有限公司杭州供电公司下属祥符变电站的可见光图像与红外图像数据库。其中,可见光图像与红外图像存在分辨率、视角条件上的差异。下文将针对不同条件下的多模态图像进行配准测试,以验证所提出配准算法的有效性。

3.1 图像配准算法的评价指标

配准算法的鲁棒性是影响其应用性能的重要因素。在本文中,以可重复性作为配准算法性能的评价指标。将可重复性r定义为在可见光图像与红外图像中同时检测到的边缘特征关键点数量与仅在可见光图像中检测到的边缘特征关键点数量的比值,计算式如下:

r=p | pYvYip | p Yv

式中:YvYi分别为可见光图像与对应红外图像中边缘特征关键点的集合。

均方根误差(root mean square error, RMSE)是评估配准算法准确性的重要指标,其值越小,表示多模态图像的配准效果越好。RMSE的定义如下:

ERMS=1nh=1nxih-xvh2+yih-yvh2

式中:ERMS为RMSE值,(xihyih)为红外图像中匹配到的关键点坐标,(xvhyvh)为对应可见光图像中匹配到的关键点坐标,n为成功匹配的关键点数量。

正确匹配率Rc和查全率Rr同样作为评价配准结果的2个有效指标而被广泛使用,具体定义为:

Rc=NcNall×100%
Rr=NcNmin×100%

式中:Nc为正确匹配的关键点数量,Nall所有匹配的关键点数量,Nmin为图像中提取的最小边界角点数量。

为验证本文配准算法的有效性,与快速鲁棒特征(speed up robust feature, SURF)算法和曲率尺度空间(curvature scale space, CSS)算法进行对比。选择不同视角下具有不同分辨率的红外图像与可见光图像进行配准并对比不同配准算法的准确性。其中,红外图像的分辨率为(640×480)像素,可见光图像的分辨率为(840×424)像素。

3.2 实验结果

对不同视角下具有不同分辨率的可见光图像与红外图像的边缘特征关键点描述符进行双边匹配,不同算法下的配准结果如图5所示。

图5

图5   不同算法下可见光图像与红外图像的配准结果

Fig.5   Registration results of visible image and infrared image under different algorithms


观察图5结果可知,对于不同视角、分辨率条件下可见光图像与红外图像的配准,基于本文算法的关键点匹配数量最多且正确匹配率最高,即配准结果最佳;基于SURF算法的关键点匹配数量极少,特征覆盖率较低;而基于CSS算法的关键点错误匹配数量较多,存在大量错误匹配和冗余匹配。为进一步验证本文算法的优越性,基于同一位置的可见光图像与红外图像的配准结果进行统计分析,计算不同算法的评价指标并进行比较,结果如表1所示。

表1   不同配准算法的评价指标对比

Table 1  Comparison of evaluation indicators of different registration algorithms

配准算法rERMSRc/%Rr/%
本文算法0.3980.49684.626.4
SURF算法0.2251.01680.117.3
CSS算法0.3460.65279.123.7

新窗口打开| 下载CSV


表1可知,相较于SURF和CSS算法,本文算法在4个指标上均具有较大提升,即其准确率和鲁棒性更高。相较于SURF算法,本文算法的rERMSRcRr值分别提高了76.8%,51.2%,5.6%和52.6%;相较于CSS算法,本文算法的rERMSRcRr值分别提高了15.0%,23.9%,7.0%,11.4%。由此说明,本文算法在电力设备多模态图像的配准中具有更高的准确性、稳定性和可重复性。

4 结 论

本文利用Canny边缘检测算法和SIFT算法相结合的方式,使用一种具有尺度不变性的多层次边缘特征关键点描述符作为匹配依据,对不同视角、分辨率条件下的多模态图像进行双边匹配,研究方法及结果如下。

1)通过设置不同的阈值,确定了Canny边缘检测算法下最适用于变电站主配网关键设备多模态图像的边缘检测阈值,并提取了精确的边缘特征。

2)基于SIFT算法分别提取了可见光图像与红外图像的边缘特征关键点描述符,保证多模态图像在不同分辨率、视角条件下的尺度空间不变性,并根据边缘特征关键点描述符的主方向进行双边匹配,实现了多源异构多模态图像的准确配准。

3)通过多模态图像配准实验以及与传统SURF算法和CSS算法的对比分析,验证了本文算法的有效性和优越性。

未来,笔者将对多模态图像双边匹配条件进行优化,并应用含更多影响因素的复杂场景进行测试,以进一步验证本文所提出的配准方法的可行性与有效性。同时,对可见光图像与红外图像进行进一步融合,结合图像丰富的表面纹理信息和热辐射信息进行更深层次的研究与验证。

参考文献

郭佳琛刘延峰马捷.

红外与可见光图像配准技术分析

[J]. 信息技术与信息化, 20236): 52-55.

[本文引用: 1]

GUO J CLIU Y FMA Jet al.

Analysis of infrared and visible light image registration technology

[J]. Information Technology and Informatization, 20236): 52-55.

[本文引用: 1]

王宁周铭杜庆磊.

一种红外可见光图像融合及其目标识别方法

[J]. 空军预警学院学报, 2019335): 328-332.

[本文引用: 1]

WANG NZHOU MDU Q L.

A method for infrared visible image fusion and target recognition

[J]. Journal of Air Force Early Warning Academy, 2019335): 328-332.

[本文引用: 1]

李云红刘宇栋苏雪平.

红外与可见光图像配准技术研究综述

[J]. 红外技术, 2022447): 641-651. doi:10.11846/j.issn.1001-8891.2022.7.hwjs202207001

[本文引用: 1]

LI Y HLIU Y DSU X Pet al.

Review of infrared and visible image registration

[J]. Infrared Technology, 2022447): 641-651.

DOI:10.11846/j.issn.1001-8891.2022.7.hwjs202207001      [本文引用: 1]

周美琪高陈强木松.

基于模态转换的红外与可见光图像配准方法

[J]. 计算机工程与设计, 20204110): 2862-2866.

[本文引用: 1]

ZHOU M QGAO C QMU Set al.

Infrared and visible image registration based on modal transformation

[J]. Computer Engineering and Design, 20204110): 2862-2866.

[本文引用: 1]

YANG Z WSHEN G RWANG Wet al.

Spatial-spectral cross correlation for reliable multispectral image registration

[C]//2009 IEEE Applied Imagery Pattern Recognition Workshop. Washington, DC, Oct. 14-162009.

[本文引用: 1]

WANG C CZANG Y SZHOU D Met al.

An interactive deep model combined with Retinex for low-light visible and infrared image fusion

[J]. Neural Computing and Applications, 20233516): 11733-11751.

[本文引用: 1]

HU Z HJING Y GWU G Q.

Decision-level fusion detection method of visible and infrared images under low light conditions

[J]. EURASIP Journal on Advances in Signal Processing, 202320231): 38.

[本文引用: 1]

李枫赵岩王世刚.

结合SIFT算法的视频场景突变检测

[J]. 中国光学, 201691): 74-80. doi:10.3788/co.20160901.0074

[本文引用: 1]

LI FZHAO YWANG S Get al.

Video scene mutation change detection combined with SIFT algorithm

[J]. Chinese Optics, 201691): 74-80.

DOI:10.3788/co.20160901.0074      [本文引用: 1]

LOWE D G.

Distinctive image features from scale-invariant keypoints

[J]. International Journal of Computer Vision, 2004602): 91-110.

[本文引用: 1]

王植贺赛先.

一种基于Canny理论的自适应边缘检测方法

[J]. 中国图象图形学报, 200498): 957-962. doi:10.11834/jig.200408183

[本文引用: 1]

WANG ZHE S X.

An adaptive edge-detection method based on Canny algorithm

[J]. Journal of Image and Graphics, 200498): 957-962.

DOI:10.11834/jig.200408183      [本文引用: 1]

易图明王先全袁威.

基于导向滤波和小波变换的红外可见光图像融合改进算法研究

[J]. 现代信息科技, 202376): 41-45.

[本文引用: 1]

YI T MWANG X QYUAN Wet al.

Research on improved infrared visible light image fusion algorithm based on guided filtering and wavelet transform

[J]. Modern Information Technology, 202376): 41-45.

[本文引用: 1]

李晖晖郑平杨宁.

基于SIFT特征和角度相对距离的图像配准算法

[J]. 西北工业大学学报, 2017352): 280-285.

[本文引用: 1]

LI H HZHENG PYANG Net al.

Relative angle distance for image registration based on SIFT feature

[J]. Journal of Northwestern Polytechnical University, 2017352): 280-285.

[本文引用: 1]

SHREYAMSHA KUMAR B K.

Image fusion based on pixel significance using cross bilateral filter

[J]. Signal, Image and Video Processing, 201595): 1193-1204.

[本文引用: 2]

YIN W XHE K JXU Det al.

Adaptive low light visual enhancement and high-significant target detection for infrared and visible image fusion

[J]. The Visual Computer, 20233912): 6723-6742.

[本文引用: 1]

ZHANG X C.

Benchmarking and comparing multi-exposure image fusion algorithms

[J]. Information Fusion, 202174111-131.

[本文引用: 1]

JIANG QLIU Y DYAN Y Jet al.

A contour angle orientation for power equipment infrared and visible image registration

[J]. IEEE Transactions on Power Delivery, 2021364): 2559-2569.

[本文引用: 1]

KANTARCI AEKENEL H K.

Thermal to visible face recognition using deep autoencoders

[C]//International Conference of the Biometrics Special Interest Group. Darmstadt, Sep. 18-192019.

[本文引用: 1]

杨勇刘家祥黄淑英.

卷积自编码融合网络的红外可见光图像融合

[J]. 小型微型计算机系统, 20194012): 2673-2680.

[本文引用: 1]

YANG YLIU J XHUANG S Yet al.

Convolutional auto-encoding fusion network for infrared and visible image fusion

[J]. Journal of Chinese Computer Systems, 20194012): 2673-2680.

[本文引用: 1]

ZENG QADU J HLIU J Xet al.

Real-time adaptive visible and infrared image registration based on morphological gradient and C_SIFT

[J]. Journal of Real-Time Image Processing, 2020171103-1115.

[本文引用: 1]

AMIN-NAJI MAGHAGOLZADEH A.

Multi-focus image fusion in DCT domain using variance and energy of Laplacian and correlation coefficient for visual sensor networks

[J]. Journal of AI and Data Mining, 201862): 233-250.

[本文引用: 1]

罗银辉王星怡吴岳洲.

基于残差密集网络的红外与可见光图像配准

[J]. 计算机时代, 202212): 66-69.

[本文引用: 1]

LUO Y HWANG X YWU Y Z.

Infrared and visible image registration based on residual dense network

[J]. Computer Era, 202212): 66-69.

[本文引用: 1]

/