浙江大学学报(工学版), 2024, 58(5): 1009-1019 doi: 10.3785/j.issn.1008-973X.2024.05.014

交通工程、土木工程

基于改进Mask R-CNN与双目视觉的智能配筋检测

魏翠婷,, 赵唯坚, 孙博超,, 刘芸怡

1. 浙江大学 建筑工程学院,浙江 杭州 310058

2. 浙江大学 平衡建筑研究中心,浙江 杭州 310028

Intelligent rebar inspection based on improved Mask R-CNN and stereo vision

WEI Cuiting,, ZHAO Weijian, SUN Bochao,, LIU Yunyi

1. College of Civil Engineering and Architecture, Zhejiang University, Hangzhou 310058, China

2. Center for Balance Architecture, Zhejiang University, Hangzhou 310028, China

通讯作者: 孙博超,男,博士后. orcid.org/0000-0002-4211-0561. E-mail:sunbochao@zju.edu.cn

收稿日期: 2023-08-9  

基金资助: 国家自然科学基金资助项目(52108254, 52208215).

Received: 2023-08-9  

Fund supported: 国家自然科学基金资助项目(52108254,52208215).

作者简介 About authors

魏翠婷(1999—),女,硕士生,从事智能建造的研究.orcid.org/0009-0003-6749-7509.E-mail:22112262@zju.edu.cn , E-mail:22112262@zju.edu.cn

摘要

为了提高配筋检测的智能化水平,提出基于改进掩膜区域卷积神经网络(Mask R-CNN)模型与双目视觉技术的配筋检测方法. 通过在Mask R-CNN中加入自下而上的注意力机制路径,形成了带通道注意力和空间注意力的掩膜区域卷积神经网络(Mask R-CNN+CA-SA)改进模型. 结合双目视觉技术进行坐标转换,获取钢筋直径与间距,实现智能配筋检测. 在自建的包含3 450 张钢筋图片的数据集上进行训练,结果表明,改进模型的F1分数和全类平均精确率(mAP)相较于Mask R-CNN基础网络分别提高了2.54%和2.47%. 通过钢筋网验证试验和复杂背景测试,钢筋直径的绝对误差和相对误差基本小于1.7 mm和10%,钢筋间距的绝对误差和相对误差分别小于4 mm和3.2%,所提方法在实际应用中具有较强的可操作性. 智能配筋检测技术在保证足够的检测精度的同时,能够大大提升工效,降低人工成本.

关键词: 配筋质量检测 ; Mask R-CNN ; 注意力机制 ; 深度学习 ; 双目视觉技术

Abstract

A rebar inspection method based on improved mask region with convolutional neural network (Mask R-CNN) model and stereo vision technology was proposed in order to promote the transformation of reinforcement inspection to intelligence. The improved model Mask R-CNN with channel attention and spatial attention (Mask R-CNN+CA-SA) was formed by adding a bottom-up path with attention mechanism in Mask R-CNN. The diameter and spacing of rebar can be obtained by combining stereo vision technology for coordinate transformation, thereby achieving intelligent rebar inspection. The training was conducted on a self-built dataset containing 3450 rebar pictures. Results showed that the Mask R-CNN+CA-SA model increased the F1 score and mean average precision (mAP) by 2.54% and 2.47% compared with the basic network of Mask R-CNN, respectively. The rebar mesh verification test and complex background test showed that the absolute error and relative error of rebar diameter were basically controlled within 1.7 mm and 10%, and the absolute error and relative error of rebar spacing were controlled within 4 mm and 3.2% respectively. The proposed method is highly operable in practical applications. The intelligent rebar inspection technology can greatly improve work efficiency and reduce labor costs while ensuring sufficient inspection accuracy.

Keywords: rebar quality inspection ; Mask R-CNN ; attention mechanism ; deep learning ; stereo vision technology

PDF (6948KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

魏翠婷, 赵唯坚, 孙博超, 刘芸怡. 基于改进Mask R-CNN与双目视觉的智能配筋检测. 浙江大学学报(工学版)[J], 2024, 58(5): 1009-1019 doi:10.3785/j.issn.1008-973X.2024.05.014

WEI Cuiting, ZHAO Weijian, SUN Bochao, LIU Yunyi. Intelligent rebar inspection based on improved Mask R-CNN and stereo vision. Journal of Zhejiang University(Engineering Science)[J], 2024, 58(5): 1009-1019 doi:10.3785/j.issn.1008-973X.2024.05.014

钢筋混凝土结构由于其取材容易、可塑性强、材料受力合理、施工工艺简单、造价低等优点,是目前工程结构中应用最广泛的结构形式. 在结构设计过程中,通过控制钢筋直径和间距来保障构件的承载力. 在混凝土浇筑前,须对钢筋隐蔽工程进行验收,校核钢筋绑扎规格、数量、间距是否符合设计要求. 传统钢筋配筋检测主要依靠人工测量的方法,检测范围和精度易受到限制,现场检测作业过程中存在较多的安全隐患. 在劳动力短缺、从业人员老龄化严重的背景下,传统的钢筋配筋检测方法亟须向智能化转型.

基于传统数字图像处理技术的钢筋检测方法[1]易受光照、背景、遮挡等因素影响,无法满足实际工程的精度要求. 随着激光扫描设备和技术的发展,基于三维点云的高精度测量方法已广泛应用于土木工程领域. Kim等[2-3]使用地面激光扫描仪获取三维点云,对钢筋直径、间距和混凝土保护层厚度进行质量评估,但由于激光扫描设备价格昂贵、数据采集耗时、计算过程繁琐等原因,该方法在实际应用中受到限制.

近年来,基于卷积神经网络的目标检测与实例分割算法得到大量应用,Yang等[4]通过U-Net解决道路信息抽取问题,实现道路检测及其中心线的估计. Pan等[5]利用DeepLabV3+识别钢材缺陷,并进行精准的分类及定位. Li等[6]将PSPNet应用到混凝土多损伤检测中,有效地提高了分割精度. 此外,目标检测与实例分割算法被用于预制构件识别[7]、钢筋绑扎网点定位[8-9]、钢筋截面计数 [10-11]等场景,主要分为基于候选区域和基于回归思想的2类算法. 以更快的区域卷积神经网络(faster region with convolutional neural network, Faster R-CNN)[12]为代表的基于候选区域的目标检测算法,采用2阶结构,先生成候选区域,再进行精细的分类与回归,能够显著地提升检测精度. Mask R-CNN是由He等[13]提出的实例分割算法,在Faster R-CNN的基础上改进而得,通过输出目标的矩形边界框和像素级掩膜,实现了高效的物体检测和高质量的实例分割. Zhao等[14]利用Mask R-CNN提取遥感图像中的建筑物,结合几何特征正则化边缘的轮廓线. Kim等[15]提出混凝土结构裂缝评估的方法,该方法通过Mask R-CNN识别裂缝,对掩膜进行形态学处理,进一步量化裂缝宽度. Xu等[16]使用改进的Mask R-CNN算法,检测隧道表面缺陷,在混凝土剥落及液体渗漏的情况下展现出良好的预测性能. Nie等[17]提出Mask R-CNN+Soft-NMS模型,通过引入柔性非极大值抑制,提高对船舶检测的鲁棒性.

Mask R-CNN具备强大的特征提取能力,由于传输路径较长,会引起底层特征信息丢失的问题,将影响检测与分割的精度. 本文通过在Mask R-CNN网络的基础上加入自下而上的注意力机制路径,提出Mask R-CNN+CA-SA模型,以提高钢筋边界框与掩膜的预测精度. 基于钢筋预测结果,通过使用双目视觉技术,计算钢筋直径与间距,实现智能配筋检测,在钢筋隐蔽工程中辅助工作人员进行质量验收.

1. 研究方法

1.1. Mask R-CNN算法

图1所示,Mask R-CNN的网络结构包含特征提取模块、候选区域(region proposal network,RPN)模块、感兴趣区域(region of interest,ROI)对齐模块和3 条输出分支. 特征提取模块采用基于残差网络(residual network,ResNet)的特征金字塔网络(feature pyramid network,FPN)结构,获取特征图. RPN模块负责提取候选框,针对特征图上的每一点生成强先验的锚点框后,利用1×1卷积得到的分类得分和边界框回归量,筛选出一组较好的候选框,输入后续的ROI对齐模块. 为了满足全卷积网络对输入特征的要求,ROI对齐模块将ResNet-FPN生成的特征图和RPN筛选出的候选框变换到相同维度. 将ROI 对齐模块得到的特征输入全连接层,在分类和边界框回归分支分别输出物体的预测类别得分与边界框回归量. 多次的卷积与池化操作造成特征图分辨率逐渐减小,掩膜分支利用反卷积操作来提升分辨率,获得物体像素级别的掩膜,完成检测与分割任务.

图 1

图 1   Mask R-CNN网络结构

Fig.1   Network structure of Mask R-CNN


1.2. 改进的Mask R-CNN算法

特征提取网络ResNet-FPN是多层特征融合的结构. 该结构将浅层和深层特征进行融合,使提取到的特征图同时具备强空间信息和强语义信息,在小物体检测领域具有突出优势. 在特征融合的过程中,最高层特征通过FPN自上而下的传播路径向底层传播后,丢失了主要特征,且相邻层间特征融合时未考虑语义信息间的差异,降低了多尺度特征的提取能力. 针对底层特征信息丢失的问题,路径聚合网络(path aggregation network, PANet) [18]使用自下而上的结构,缩短底层与最高特征层之间的传播路径,丰富高层的空间信息,增强特征层的定位能力. Huang等[19]通过在特征金字塔中增加横向连接支路,将底层特征层信息补充到后续网络中. Li等[20]利用基于增强单发多框探测器(single shot multibox detector, SSD)的特征金字塔模型,以非线性的方式融合各层特征.

注意力机制(attention mechanism,AM) [21]因其良好的性能,被广泛应用于计算机视觉领域,例如图像分类[22]、人脸识别[23-24]、关键点检测[25]、三维视觉[26]等. AM的基本思想是对各输入特征分配权重系数,通过权重系数表示对该特征的关注程度,具体可以分为通道注意力(channel attention,CA)、空间注意力(spatial attention,SA)和混合注意力3 类.

通道注意力机制CA模块的结构如图2所示,将高为H、宽为W、通道数为C的特征图输入全局平均池化层,对其空间维度WH进行压缩, C保持不变,便于后续的网络学习通道特征. 对1×1×C维度的特征图进行卷积操作,并经过softmax处理后获得归一化序列. 该序列即为通道注意力机制权重,与输入特征图按通道维度对应相乘,获得最终的输出特征图.

图 2

图 2   通道注意力机制

Fig.2   Channel attention mechanism


空间注意力机制SA模块的结构如图3所示,为了获得特征图中目标的位置特征,对特征图进行1×1卷积和softmax处理,将通道维度压缩为单位1,并保持高、宽不变,获得H×W的矩阵. 该矩阵即为空间注意力机制权重,反映特征图中对应像素点位置信息的重要程度. 将输入特征图与该权重矩阵相乘,可以起到放大重要特征、弱化背景信息的作用.

图 3

图 3   空间注意力机制

Fig.3   Spatial attention mechanism


由于钢筋边缘带有纵肋和横肋,为了保证Mask R-CNN网络对边缘细节的预测精度,借鉴PANet的网络结构,在ResNet-FPN模块中增加自下而上的传播路径,并嵌入通道注意力和空间注意力结合的CA-SA模块. 加强浅层与深层特征的融合,避免钢筋边缘细节信息的丢失;调整特征提取的重点,突出高目标响应通道和目标像素点,提高Mask R-CNN网络的钢筋检测与分割准确度.

自下而上注意力机制路径的结构如图4所示,最左侧部分采用ResNet网络结构,获取{C1,C2,C3,C4,C5}特征图. 在C5的基础上,通过1×1卷积及通道数下采样操作生成P5特征图,采用2倍最近邻上采样放大特征图分辨率后,与C4逐元素相加,以生成P4特征图. 为了获取自下而上路径中的{N2,N3,N4,N5}特征图,将P2的特征信息传入N2,再对N2进行3×3卷积将高、宽下采样至P3尺寸,与P3逐元素相加后,输入CA-SA模块来得到N3. 依此类推,N4和N5可在P4和P5特征图上对应提取. 通过将该自下而上的注意力机制路径镶嵌到Mask R-CNN模型中,形成改进的Mask R-CNN模型,即Mask R-CNN+CA-SA模型.

图 4

图 4   自下而上的注意力机制路径

Fig.4   Bottom-up path with attention mechanism module


1.3. 双目视觉技术

双目视觉是计算机视觉的重要领域,通过左右目相机来模拟人类视觉系统,结合透视投影、三角测量和特征点匹配原理获取景深信息,计算物体相对于相机的三维空间坐标. 由于设备简便、效率高、成本低等优势,双目立体视觉技术被广泛应用于自动驾驶[27]、遥感技术[28]、目标识别[29-30]、三维重建[31]等领域.

采用英特尔RealSense深度相机设备,从左到右依次内置了RGB相机、左红外相机、红外点阵投射器和右红外相机. 左、右红外相机基于双目立体视觉原理测量深度,红外点阵投射器用于为物体增加结构光编码图案,RGB相机用于采集彩色图像. RealSense相机的深度测量原理如图5所示. 图中,基线b表示左、右红外相机轴线中心的连线,f为相机焦距. 在理想情况下,左、右红外相机光轴相互平行,对于空间中任一点Pxyz),z为距离相机坐标平面的垂直深度,其在左、右成像平面投影点的坐标分别为(xlyl)、(xryr). 两投影点的视差d等于xlxr之差,如下所示:

图 5

图 5   RealSense相机的深度测量原理图

Fig.5   Schematic diagram for depth measurement by RealSense


$ d = {x_{\mathrm{l}}} - {x_{\mathrm{r}}}. $
(1)

利用计算出的dbf,根据三角测量原理即可求出点P距离相机的深度z,如下所示:

$ z = \frac{{f b}}{d} = \frac{{f b}}{{{x_{\mathrm{l}}} - {x_{\mathrm{r}}}}}. $
(2)

在求出深度z后,通过相机内参矩阵将像素坐标系转换至相机坐标系,利用(xlyl)的像素坐标计算出点Pxy坐标值. 若已知RealSense深度相机获取的任意两点(x1y1,z1)、(x2,y2,z2),则根据下式可以求出两点间的距离:

$ D=\sqrt{({x}_{1}-{x}_{2}{)} ^{\text{2}}+({y}_{1}-{y}_{2}{)} ^{\text{2}}+({z}_{1}-{z}_{2}{)} ^{\text{2}}}. $
(3)

将提出的Mask R-CNN+CA-SA模型与双目视觉技术结合, Mask R-CNN+CA-SA模型负责对钢筋进行识别,双目视觉技术则用于计算钢筋直径与间距,实现钢筋的智能检测.

1.4. 基于改进Mask R-CNN的智能配筋检测方法

图6所示为智能配筋检测方法的流程示意图,主要分为深度相机数据采集、钢筋识别、钢筋直径与间距计算3部分,坐标转换作为钢筋尺寸计算的辅助环节. 使用深度相机对钢筋的RGB和深度图像进行采集,其中RGB图用于反映钢筋的色彩与纹理信息,深度图用于存储像素点的深度信息z. 利用在钢筋数据集上充分训练的Mask R-CNN+CA-SA模型,对输入的RGB图进行钢筋识别,获取钢筋边界框与掩膜的预测结果. 利用掩膜提取钢筋边缘与中线对应点对的像素坐标集合,作为钢筋直径与间距计算的平面依据. 将深度图传入坐标转换部分,通过深度图与RGB图对齐的方法,获取各像素点的深度坐标z. 结合相机内参矩阵计算出钢筋直径与间距对应点对的空间坐标,分别代入式(3),可以获得实际的钢筋直径与间距.

图 6

图 6   智能配筋检测方法的实现流程

Fig.6   Flow chart of intelligent rebar inspection method


2. 改进的Mask R-CNN模型训练

2.1. 钢筋数据集

Mask R-CNN是实例分割的通用网络,利用改进的Mask R-CNN实现钢筋这一特定对象的识别,须预先在钢筋数据集上进行训练. 数据集包括训练集与测试集2个部分. 在训练集中,钢筋图片与标签分别作为输入和输出传入Mask R-CNN+CA-SA网络,用于计算钢筋实例分割模型的权重参数. 在测试集中,钢筋图片输入训练好的模型进行钢筋检测与分割,对结果进行损失和评价指标计算,用于对下一训练步的权重参数进行调整. 直至训练结束,保留最优评价指标对应的权重参数,用于智能配筋检测方法的钢筋边界框与掩膜预测.

2.1.1. 数据标注

由于目前没有公开的钢筋数据集,使用照相机设备采集钢筋的原始图片. 部分数据集图片如图7所示,拍摄对象为带肋钢筋组成的单双层钢筋网. 为了增加数据集的多样性,拍摄过程中考虑影响检测和尺寸计算精度的因素,图7(a)、(b)反映背景复杂程度的差异,图7(c)、(d)体现背景与钢筋颜色差距的大小,图7(e)、(f)分别为产生钢筋倒影和反光点的情况.

图 7

图 7   部分数据集图片

Fig.7   Partial pictures in dataset


在采集好钢筋原始图片后,为了获得钢筋的掩膜标签,使用开源标注软件Labelme进行人工标注. 以多边形勾勒出钢筋实例的边缘,该多边形对应的围合区域即为钢筋掩膜. 将标注数据以json文件格式进行存储. 为了将较多的数据用于模型性能的测试,按照7∶3的比例随机划分为训练集和测试集.

2.1.2. 数据增强

初始采集图像共计有300 张,为了提高模型的泛化性能,同时降低数据间的相似程度,采用混合数据增强的方式对数据集进行扩增,包括图片平移、翻转、仿射变换等几何变换方式以及调整亮度、对比度、增加高斯噪声等像素变换方式. 如图8(a)所示为数据集的原始图片,经过水平翻转及对比度调整得到图8(b),经过裁剪放大及高斯噪声处理得到图8(c). 数据集扩增后进一步筛除相似度过高的图像,最终保留3 450 张,满足神经网络训练对数据量的要求.

图 8

图 8   数据增强示意图

Fig.8   Schematic diagram of data enhancement


2.2. 模型训练

使用Ubuntu18.04操作系统、Intel(R) Xeon(R) E5-2678 v3 @ 2.50 GHz CPU、NVIDIA GeForce RTX 2080 Ti显卡作为模型训练的软硬件条件. 选用ResNet101作为主干特征提取网络,基于迁移学习的思想,训练时进一步加载ResNet101的预训练权重对超参数进行初始化,有助于加快训练的收敛速度,提升模型性能. 采用随机梯度下降方法作为优化器,更新模型参数,动量为0.9,权重衰减因子为0.000 1. 设置训练批次大小为4,总训练轮次为50,初始学习率为0.000 5.

2.2.1. 模型评价指标

对于Mask R-CNN网络,目标检测的准确率对实例分割的精度会有一定的影响,采用精确率P(precision)和F1分数作为该部分的评价指标. P为模型预测出的目标中属于正确预测的比例,召回率R(Recall)为所有真值目标中被预测为正样本的比例,F1PR的调和平均数,公式如下:

$ P = \frac{{{T_{\text{P}}}}}{{{T_{\text{P}}}+{F_{\text{P}}}}}, $
(4)

$ R = \frac{{{T_{\text{P}}}}}{{{T_{\text{P}}}+{F_{\text{N}}}}}, $
(5)

$ {F_1} = \frac{{2 P R}}{{P+R}}. $
(6)

式中:TP为实际目标为钢筋且被正确预测为钢筋的数量,FP为实际目标为背景但被错误预测为钢筋的数量,FN 为实际目标为钢筋但被错误预测为背景的数量.

采用平均交并比(mean intersection over union,mIoU)、Dice损失和全类平均精确率(mean average precision,mAP)作为模型分割性能的评价指标. mIoU为不同类别的预测掩膜与目标掩膜重叠比例的均值. Dice损失表示预测掩膜与目标掩膜之间的相似度. 平均精确率(average precision,AP)为置信度阈值下P-R曲线与坐标轴围合区域的面积,对物体类别N求平均,得到全类平均精确率(mean average precision,mAP),公式如下所示.

$ {\text{AP}} = \int_0^1 {P(R){\text{d}}R} , $
(7)

$ {\text{mAP}} = {N^{-1}}{\displaystyle \sum\nolimits_{i = 1}^N {{\text{AP}}} } = {N^{-1}}{\displaystyle \sum\nolimits_{i = 1}^N {\displaystyle \int_0^1 {P(R){\text{d}}R} } }. $
(8)

为了综合反映模型性能,采用COCO数据集定义的方法计算mAP指标,即使用不同交并比阈值(0.5:0.05:0.95)下mAP的平均值表示,当大于设定的交并比阈值时认为该预测结果为正样本.

2.2.2. 训练结果与分析

为了验证模型的有效性,采用相同的超参数设置,将提出的Mask R-CNN+CA-SA模型与Mask R-CNN+Soft-NMS、Mask R-CNN基础网络、U-Net、DeepLabV3+及PSPNet进行比较. 如表1所示为各模型性能的对比结果. Mask R-CNN+CA-SA模型的P为93.89%,F1分数为94.97%,mIoU为89.03%,Dice损失为12.26%,mAP为87.62%,相对于其他分割模型性能最为优异,其中较Mask R-CNN基础网络的PF1分数、mIoU和mAP分别提高了3.56%、2.54%、2.60%和2.47%,Dice损失降低了1.14%.

表 1   不同模型的评价指标对比

Tab.1  Evaluation index comparison of different models

模型PF1mIoUDice损失mAP
Mask R-CNN+CA-SA93.8994.9789.0312.2687.62
Mask R-CNN+Soft-NMS91.3492.1987.4312.9886.02
Mask R-CNN90.3392.4386.4313.3285.15
U-Net89.7391.5086.2214.3484.53
DeepLabV3+91.9591.6986.7513.9685.07
PSPNet87.1288.1381.4616.5579.44

新窗口打开| 下载CSV


在各指标中,F1分数和mAP能够更综合地评价模型性能. 如图9所示为Mask R-CNN+CA-SA、Mask R-CNN基础网络的F1和mAP曲线.图中,E为训练轮次.2项指标在前10 个训练轮次内显著增加,第30 个训练轮次后趋于稳定. Mask R-CNN+CA-SA从初始阶段即可改善钢筋掩膜的分割精度,模型整体性能呈现稳步提升的趋势. 利用Mask R-CNN+CA-SA模型进行钢筋检测,结果如图10所示,得到钢筋的矩形边界框、区域掩膜、类别标签与置信度信息.

图 9

图 9   不同模型的F1和mAP曲线

Fig.9   F1 and mAP curves of different models


图 10

图 10   基于Mask R-CNN+CA-SA模型的钢筋检测结果

Fig.10   Inspection result of rebars based on Mask R-CNN +CA-SA model


3. 双目视觉配筋检测

在Mask R-CNN+CA-SA模型训练完成后,可以根据RealSense提供的开源SDK框架,按照数据采集、钢筋识别、钢筋直径与间距计算的流程,开发双目视觉配筋检测方法.

在数据采集前,为了获取准确的深度测量数据,使用英特尔官方给出的标定工具对RealSense深度相机设备的内、外参数进行标定. 以最左侧的RGB相机为世界坐标系原点,相机内参矩阵、旋转矩阵和平移矩阵的标定结果如表2所示.

表 2   内、外参数的标定结果

Tab.2  Calibration result of intrinsic and extrinsic parameters

参数数值
内参矩阵$\left[ {\begin{array}{*{20}{c}} {910.575}&{\text{0}}&{637.795} \\ {\text{0}}&{908.432}&{380.199} \\ 0&{\text{0}}&{\text{1}} \end{array}} \right]$
旋转矩阵$\left[ {\begin{array}{*{20}{c}} {{\text{0}}{\text{.999\;981}}}&{{\text{0}}{\text{.005\;517\;8}}}&{{\text{0}}{\text{.002\;588\;0}}} \\ {{{ - 0}}{\text{.005\;515\;7}}}&{{\text{0}}{\text{.999\;984}}}&{{{ - 0}}{\text{.000\;819\;70}}} \\ {{{ - 0}}{\text{.002\;592\;44}}}&{{\text{0}}{\text{.000\;805\;408}}}&{{\text{0}}{\text{.999\;996}}} \end{array}} \right]$
平移矩阵$\left[ {\begin{array}{*{20}{c}} {{\text{ 0}}{\text{.014\;838\;3}}}&{{\text{0}}{\text{.000\;191\;953}}}&{{\text{0}}{\text{.000\;010\;653\;8}}} \end{array}} \right]$

新窗口打开| 下载CSV


为了使深度误差小于2%,将RealSense相机和采集对象的距离控制在0~2 m. 调用上述标定好的内、外参数,通过SDK的深度成像模块对左、右红外相机的图像进行特征点匹配,根据左、右成像图片的视差计算对应像素点的深度,形成深度图.

图11(a)、(b)所示为深度相机采集的钢筋RGB和深度图像数据. 原始深度图通过灰度来表征单一的深度信息,为了体现深度之间的差异,加强可视化效果,图11(b)在原始深度图的基础上进行了色彩渲染,图像底部呈深色为距离相机较近的区域. 将钢筋RGB图输入训练好的Mask R-CNN+CA-SA模型中,检测结果如图11(c)所示. 可以看出,钢筋表面锈蚀及地面倒影未对模型预测造成干扰,钢筋主体掩膜完整. 由于模型预测顺序具有随机性,为了提高配筋检测的效率和可操作性,按照自上而下、从左到右的顺序,重新对钢筋掩膜进行排序. 将单根钢筋的掩膜图像进行二值化处理,利用边缘检测算法提取掩膜的边缘和中线坐标,通过k近邻算法计算得到各掩膜中线的法向量. 如图11(d)所示,沿法向量方向向掩膜两侧边缘、相邻掩膜中线延伸,提取边缘和中线的对应点对像素坐标. 将图11(a)、(b)的信息进行对齐,获得边缘和中线对应点对的空间坐标,计算出各根钢筋的直径与间距后,将数据存储在对应编号的信息元组中进行输出.

图 11

图 11   配筋检测的输入与输出数据

Fig.11   Input and output data of rebar inspection


4. 配筋检测试验与评估

为了验证智能配筋检测方法的准确性,在试验室环境下搭建一单层钢筋网,利用智能配筋检测方法计算直径与间距,与人工测量结果对比.

图11(a)所示为单层钢筋网的基本组成情况,沿纵向和横向分别配置6 根钢筋,采用焊接的方式对网点进行固定,左、右两端设置的35 mm高垫木则用于钢筋网的抬高. 为了说明智能配筋检测方法的适用范围,直径与间距分别设置小、中、大3种尺寸,从钢筋网中心到两端边缘,直径对称地由10 mm递增至16 mm和20 mm;间距设计值包含100、150和200 mm,但由于存在制作误差,钢筋间距真实值利用人工测量的方法进一步确定.

图11(d)所示,每根钢筋分别选取20 组边缘对应点对,利用20 组数据的均值作为直径的检测值,选取60 段的网点位置计算钢筋间距. 智能配筋检测的可视化结果如图12所示,图12(a)为钢筋直径与间距对应的位置编号,纵、横向分别用y和x表示,并按照自上而下、从左到右的顺序赋予1~6的标号. 如图12(b)所示为直径与间距的检测值,分别用方框在原位进行标注.

图 12

图 12   配筋检测可视化结果

Fig.12   Visualization results of rebar inspection


钢筋直径的检测结果如表3所示. 表中,Dn为公称直径,D为直径检测值,Eda为直径的绝对误差,Edr为直径的相对误差.绝对误差为0~1.7 mm,相对误差基本控制在0~10%. 智能配筋检测方法在小直径钢筋检测方面同样具有较好的效果,y4位置误差最小为0.3 mm. 对于工程中使用的各类规格的钢筋,22 mm及以下钢筋公称直径以2 mm递减,22 mm以上分为25、28、32、36、40、50 mm,相邻型号的钢筋公称直径最小相差3 mm,最大相差10 mm. 为了确保工作人员在钢筋隐蔽工程验收中不会对钢筋直径作出误判,须将智能配筋检测方法的钢筋直径允许误差控制在0~1.0 mm. 在检测结果中,x5、x6、y3和y5位置的钢筋绝对误差均超过1 mm,会使工作人员将直径分别误判为14、22、12和14 mm,不满足实际工程的精度要求.

表 3   钢筋直径检测结果

Tab.3  Inspection results of rebar diameter

位置
编号
Dn/mmD/mmEda/mmEdr/%位置
编号
Dn/mmD/mmEda/mmEdr/%位置
编号
Dn/mmD/mmEda/mmEdr/%
x120.020.60.63.0x216.016.70.74.4x310.010.60.66.0
x410.010.70.77.0x516.014.2−1.710.6x620.021.51.57.5
y120.020.60.63.0y216.016.90.95.6y310.011.21.212.0
y410.09.7−0.33.0y516.014.3−1.710.6y620.020.000

新窗口打开| 下载CSV


表4所示为钢筋间距的检测结果. 表中,钢筋间距真实值为通过人工卷尺测量获得的数据,Sr为钢筋间距的真实值,S为钢筋间距的检测值,Esa为间距的绝对误差,Esr为间距的相对误差. 绝对误差均小于4 mm,且约有1/2的钢筋间距误差可以保持在0~1.0 mm. 相对误差基本控制在0~3%,最大相对误差对应的位置编号为x2-5,检测值大于真实值3.2%. 根据GB50204—2015《混凝土结构工程施工质量验收规范》5.5.3条[32]可知,钢筋间距的安装误差须控制在0~20 mm,试验中钢筋间距的绝对误差均远小于规定的允许偏差,满足规范对间距检测精度的要求.

表 4   钢筋间距检测结果

Tab.4  Inspection results of rebar spacing

位置编号Sr/mmS/mmEsa/mmEsr/%位置编号Sr/mmS/mmEsa/mmEsr/%位置编号Sr/mmS/mmEsa/mmEsr/%
x1-1200.0201.31.30.7x2-1198.0200.82.81.4x3-1200.0200.10.10.1
x1-2199.0200.81.80.9x2-2200.0197.3−2.71.4x3-2198.0198.70.70.4
x1-3152.0152.00.00.0x2-3153.0154.51.51.0x3-3152.0154.52.51.6
x1-4149.0149.60.60.4x2-4147.0149.72.71.8x3-4150.0153.23.22.1
x1-5102.0102.30.30.3x2-5103.0106.33.33.2x3-5100.0102.42.42.4
x4-1200.0200.60.60.3x5-1200.0200.00.00.0x6-1198.0199.11.10.6
x4-2197.0196.7−0.30.2x5-2196.0195.5−0.50.3x6-2198.0198.20.20.1
x4-3153.0155.02.01.3x5-3154.0154.00.00.0x6-3154.0151.2−2.81.8
x4-4150.0150.50.50.3x5-4150.0151.41.40.9x6-4150.0151.41.40.9
x4-5100.0102.82.82.8x5-5101.0101.50.50.5x6-5100.0102.52.52.5
y1-199.099.60.60.6y2-1100.097.7−2.32.3y3-1100.097.1−2.92.9
y1-2146.0146.10.10.1y2-2147.0144.1−2.92.0y3-2152.0154.32.31.5
y1-3151.0152.71.71.1y2-3148.0149.41.40.9y3-3145.0144.1−0.90.6
y1-4203.0206.03.01.5y2-4205.0208.83.81.9y3-4203.0204.71.70.8
y1-5200.0202.42.41.2y2-5200.0201.81.80.9y3-5200.0201.81.80.9
y4-1103.0102.3−0.70.7y5-1102.0100.0−2.02.0y6-1103.0105.72.72.6
y4-2150.0149.2−0.80.5y5-2150.0148.3−1.71.1y6-2148.0144.2−3.82.6
y4-3147.0149.92.92.0y5-3148.0148.70.70.5y6-3150.0150.80.80.5
y4-4200.0199.5−0.50.3y5-4198.0201.53.51.8y6-4198.0199.41.40.7
y4-5203.0204.61.60.8y5-5202.0204.32.31.1y6-5204.0200.1−3.91.9

新窗口打开| 下载CSV


为了验证所提方法的可行性与实际可操作性,在复杂背景下对梯板钢筋网进行识别与检测,结果如图13所示. 可以看出,在复杂环境背景下,所有钢筋均能被准确识别. 钢筋直径和上层钢筋间距的最大绝对误差位置被放大标记,其中,直径最大绝对误差处的检测值为9.1 mm,相较于公称直径小0.9 mm;间距最大绝对误差处的检测值为201.8 mm,相较于真实值大1.8 mm,两者均满足工程实际所需的精度要求.

图 13

图 13   复杂背景配筋检测结果

Fig.13   Rebar inspection results in complex background


综上所述,智能配筋检测方法对钢筋直径的检测精度偏低,但在钢筋间距检测方面能够达到理想的高精度效果. 误差产生的原因如下. 1)较大的直径与间距误差主要分布在钢筋网的边缘位置,这些误差主要受深度图分辨率的影响,RealSense相机提供的深度图最大分辨率仅为1 280 像素×720 像素,在与RGB图对齐的过程中容易出现图像边缘对齐精度下降的问题,导致边缘像素点匹配到错误的深度信息. 该问题可以通过提高深度相机的像素得到解决. 2)钢筋表面带有纵肋和横肋,公称直径无法全面衡量钢筋截面的尺寸分布情况,且钢筋掩膜与钢筋肋部的锯齿状边缘未完全贴合,导致提取的对应点对存在偏差,从而加大钢筋直径检测的误差. 对于不同直径的钢筋,其公称直径属性、检测方法及其影响因素尚需进一步的研究.

5. 结 论

(1)通过在自建的包含3 450 张图片的钢筋数据集上进行训练,Mask R-CNN+CA-SA相较于Mask R-CNN基础网络的F1分数和mAP分别增加了2.54%和2.47%,表明Mask R-CNN+CA-SA模型能够有效提高钢筋边界框与掩膜预测的准确率.

(2)使用单层钢筋网试验和复杂背景测试,对提出的智能配筋检测方法进行验证. 结果表明,钢筋直径的检测精度偏低,绝对误差为0~1.7 mm,需要进一步提高. 钢筋间距的检测精度较高,绝对误差均小于4.0 mm,满足规范验收的精度要求. 智能配筋检测方法在实际应用中具有较强的可操作性.

(3)深度图分辨率过低导致图像边缘对齐精度下降,以及掩膜未贴合钢筋锯齿状边缘是造成智能配筋检测方法误差的主要原因. 今后须进一步提升图像分辨率及掩膜精度,通过扩充数据集增强智能配筋检测方法的鲁棒性,将其应用到更复杂的场景中.

参考文献

孙昊. 基于数字图像的钢筋工程快速检查方法研究[D]. 镇江: 江苏大学, 2019.

[本文引用: 1]

SUN Hao. Research on fast inspection method of reinforcement based on digital image [D]. Zhenjiang: Jiangsu University, 2019.

[本文引用: 1]

KIM M K, THEDJA J P P, WANG Q

Automated dimensional quality assessment for formwork and rebar of reinforced concrete components using 3D point cloud data

[J]. Automation in Construction, 2020, 112: 103077

DOI:10.1016/j.autcon.2020.103077      [本文引用: 1]

CHI H L, KIM M K, LIU K Z, et al

Rebar inspection integrating augmented reality and laser scanning

[J]. Automation in Construction, 2022, 136: 104183

DOI:10.1016/j.autcon.2022.104183      [本文引用: 1]

YANG X, LI X, YE Y, et al

Road detection and centerline extraction via deep recurrent convolutional neural network U-Net

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57 (9): 7209- 7220

DOI:10.1109/TGRS.2019.2912301      [本文引用: 1]

PAN Y, ZHANG L

Dual attention deep learning network for automatic steel surface defect segmentation

[J]. Computer ‐Aided Civil and Infrastructure Engineering, 2022, 37 (11): 1468- 1487

DOI:10.1111/mice.12792      [本文引用: 1]

LI S, ZHAO X

A performance improvement strategy for concrete damage detection using stacking ensemble learning of multiple semantic segmentation networks

[J]. Sensors, 2022, 22 (9): 3341

DOI:10.3390/s22093341      [本文引用: 1]

姚刚, 廖港, 杨阳, 等. 基于卷积神经网络的预制叠合板多目标智能化检测方法[J/OL]. 土木与环境工程学报(中英文) , 2024, 46(1): 93-101 [2023-06-30]. http://kns.cnki.net/kcms/detail/50.1218.TU.20220423.2103.002.html.

[本文引用: 1]

YAO Gang, LIAO Gang, YANG Yang, et al. Multi-target intelligent detection method of prefabricated laminated board based on convolutional neural network [J/OL]. Journal of Civil and Environmental Engineering , 2024, 46(1): 93-101[2023-06-30]. http://kns.cnki.net/kcms/detail/50.1218.TU.20220423.2103.002.html.

[本文引用: 1]

董国梁, 张雷, 辛山

基于深度学习的钢筋绑扎机器人目标识别定位

[J]. 电子测量技术, 2022, 45 (11): 35- 44

[本文引用: 1]

DONG Guoliang, ZHANG Lei, XIN Shan

Target recognition and location of steel bar binding robot based on deep learning

[J]. Electronic Measurement Technology, 2022, 45 (11): 35- 44

[本文引用: 1]

JIN J, ZHANG W, LI F, et al

Robotic binding of rebar based on active perception and planning

[J]. Automation in Construction, 2021, 132: 103939

DOI:10.1016/j.autcon.2021.103939      [本文引用: 1]

LI Y, LU Y, CHEN J

A deep learning approach for real-time rebar counting on the construction site based on YOLOv3 detector

[J]. Automation in Construction, 2021, 124: 103602

DOI:10.1016/j.autcon.2021.103602      [本文引用: 1]

SHIN Y, HEO S, HAN S, et al

An image-based steel rebar size estimation and counting method using a convolutional neural network combined with homography

[J]. Buildings, 2021, 11 (10): 463

DOI:10.3390/buildings11100463      [本文引用: 1]

REN S, HE K, GIRSHICK R, et al

Faster R-CNN: towards real-time object detection with region proposal networks

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39 (6): 1137- 1149

DOI:10.1109/TPAMI.2016.2577031      [本文引用: 1]

HE K, GEORGIA G, PIOTR D, et al

Mask R-CNN

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42 (2): 386- 397

DOI:10.1109/TPAMI.2018.2844175      [本文引用: 1]

ZHAO K, KANG J, JUNG J, et al. Building extraction from satellite images using Mask R-CNN with building boundary regularization [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Salt Lake City: IEEE, 2018: 247-251.

[本文引用: 1]

KIM B, CHO S

Image-based concrete crack assessment using mask and region-based convolutional neural network

[J]. Structural Control and Health Monitoring, 2019, 26 (8): e2381

[本文引用: 1]

XU Y, LI D, XIE Q, et al

Automatic defect detection and segmentation of tunnel surface using modified Mask R-CNN

[J]. Measurement, 2021, 178: 109316

DOI:10.1016/j.measurement.2021.109316      [本文引用: 1]

NIE S, JIANG Z, ZHANG H, et al. Inshore ship detection based on mask R-CNN [C]// IEEE International Geoscience and Remote Sensing Symposium . Valencia: IEEE, 2018: 693-696.

[本文引用: 1]

LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Salt Lake City: IEEE, 2018: 8759-8768.

[本文引用: 1]

HUANG Z, ZHONG Z, SUN L, et al. Mask R-CNN with pyramid attention network for scene text detection [C]// IEEE Winter Conference on Applications of Computer Vision . Waikoloa: IEEE, 2019: 764-772.

[本文引用: 1]

LI Z, ZHOU F. FSSD: Feature fusion single shot multibox detector [EB/OL]. [2023-06-30]. https:// arxiv.org/abs/1712.00960.

[本文引用: 1]

VASWANI A, SHAZEER N, PARMAR N, et al

Attention is all you need

[J]. Advances in Neural Information Processing Systems, 2017, 30: 5999- 6009

[本文引用: 1]

WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision . Switzerland: Springer, 2018: 3-19.

[本文引用: 1]

YANG J, REN P, ZHANG D, et al. Neural aggregation network for video face recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Honolulu: IEEE, 2017: 5216-5225.

[本文引用: 1]

WANG Q, WU T, ZHENG H, et al. Hierarchical pyramid diverse attention networks for face recognition [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition . Piscataway: IEEE, 2020: 8326-8335.

[本文引用: 1]

CHEN Y, DAI X, LIU M, et al. Dynamic convolution: attention over convolution kernels [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition . Seattle: IEEE, 2020: 11030-11039.

[本文引用: 1]

XIE S, LIU S, CHEN Z, et al. Attentional ShapeContextNet for point cloud recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Salt Lake City: IEEE, 2018: 4606-4615.

[本文引用: 1]

ZAARANE A, SLIMANI I, AL OKAISHI W, et al

Distance measurement system for autonomous vehicles using stereo camera

[J]. Array, 2020, 5: 100016

DOI:10.1016/j.array.2020.100016      [本文引用: 1]

PEPE M, FREGONESE L, SCAIONI M

Planning airborne photogrammetry and remote-sensing missions with modern platforms and sensors

[J]. European Journal of Remote Sensing, 2018, 51 (1): 412- 436

DOI:10.1080/22797254.2018.1444945      [本文引用: 1]

TUOMINEN S, NÄSI R, HONKAVAARA E, et al

Assessment of classifiers and remote sensing features of hyperspectral imagery and stereo-photogrammetric point clouds for recognition of tree species in a forest area of high species diversity

[J]. Remote Sensing, 2018, 10 (5): 714

DOI:10.3390/rs10050714      [本文引用: 1]

LI D, XU L, TANG X, et al

3D imaging of greenhouse plants with an inexpensive binocular stereo vision system

[J]. Remote Sensing, 2017, 9 (5): 508

DOI:10.3390/rs9050508      [本文引用: 1]

ZHOU Y, GALLEGO G, REBECQ H, et al. Semi-dense 3D reconstruction with a stereo event camera [C]// Proceedings of the European Conference on Computer Vision . Munich: Springer, 2018: 235-251.

[本文引用: 1]

混凝土结构工程施工质量验收规范: GB 50204—2015 [S]. 北京: 中国建筑工业出版社, 2015.

[本文引用: 1]

/