工程设计学报, 2026, 33(1): 65-75 doi: 10.3785/j.issn.1006-754X.2026.05.247

机器人与机构设计

面向泥浆遮挡的涂抹机器人双目视觉定位方法研究

左鹏,1,2, 郑正鼎,,1,2, 高全杰1,2, 吴林飞1,2, 王红霞3

1.武汉科技大学 冶金装备及其控制教育部重点实验室, 湖北 武汉 430081

2.武汉科技大学 机械传动与制造工程湖北省重点实验室, 湖北 武汉 430081

3.湖北汽车工业学院, 湖北 十堰 442002

Stereo visual localization method for plastering robots under mud occlusion

ZUO PENG,1,2, ZHENG Zhengding,,1,2, GAO Quanjie1,2, WU Linfei1,2, WANG Hongxia3

1.Key Laboratory of Metallurgical Equipment and Control Technology of Ministry of Education, Wuhan University of Science and Technology, Wuhan 430081, China

2.Hubei Key Laboratory of Mechanical Transmission and Manufacturing Engineering, Wuhan University of Science and Technology, Wuhan 430081, China

3.Hubei University of Automotive Technology, Shiyan 442002, China

通讯作者: 郑正鼎(1995—),男,讲师,博士,从事先进制造装备设计与工艺开发等研究,E-mail: zdzheng@wust.edu.cn, http://orcid.org/000-0002-8310-2090

收稿日期: 2025-09-20   修回日期: 2025-11-16  

基金资助: 湖北省自然科学基金科技创新群体项目.  2024AFA026

Received: 2025-09-20   Revised: 2025-11-16  

作者简介 About authors

左 鹏(2001—),男,硕士生,从事自动化技术应用、机器视觉研究,E-mail:13707478343@163.com , E-mail:13707478343@163.com

摘要

为了解决砌筑施工现场泥浆飞溅导致的砖块涂抹面局部遮挡以致涂抹机器人难以快速、精准定位的问题,提出了一种适用于复杂工况的基于机器人双目视觉的砖块涂抹面定位方法。利用YOLOv11实例分割模型提取涂抹面轮廓信息;将轮廓特征与双目深度图像结合,构建融合置信度分层与梯度预测的深度修复模型,用以解决泥浆遮挡引起的深度信息缺失、双目成像导致的轮廓边缘模糊等问题;将修复后的深度图像生成高质量点云,并通过平面拟合与最小外接矩形提取涂抹面角点,实现涂抹面三维空间的高精度定位。实验结果表明:在无遮挡工况下,深度修复后涂抹面XYZ向的平均定位误差分别减少17.8%、16.1%和12.6%;在轻度和中度遮挡工况下,三轴平均定位误差分别减少23.8%、21.2%和25.1%;当遮挡率不超过25%时,最大误差均控制在5 mm以内,满足机器人末端操作的精度要求。所提出的方法在相机多姿态变化与中度遮挡工况下具有快速、精准定位的优势,具备良好的工程应用前景,可为涂抹自动化作业提供可靠的视觉感知技术支撑。

关键词: 双目视觉 ; 深度修复 ; 局部遮挡 ; 涂抹机器人

Abstract

This study aims to address the challenge of rapid and accurate localization of brick plastered surfaces under partial occlusion caused by mud splashes in construction environments. A stereo-vision-based localization method suitable for complex working conditions was proposed. The contour information of the plastered surface was extracted using the YOLOv11 instance segmentation model. By combining the contour features with the stereo depth images, a depth restoration model combining confidence-layered mapping and gradient prediction was developed to mitigate the loss of depth information caused by mud occlusion, as well as contour edge blurring resulting from stereo imaging. The restored depth map was then converted into a high-quality point cloud, from which the plastered surface three-dimensional space was precisely localized by extracting the corner points of the plastered surface through plane fitting and minimum bounding rectangle. The experimental results showed that under no occlusion working condition, the average localization errors in the X, Y, and Z directions of the plastered surface after depth restoration decreased by 17.8%, 16.1%, and 12.6%, respectively. Under mild and moderate occlusion working conditions, the average localization errors of the three axes decreased by 23.8%, 21.2%, and 25.1% respectively. When the occlusion rate was less than 25%, the maximum error was controlled within 5 mm, meeting the precision requirements for the robotic end operation. The proposed method has the advantages of rapid and accurate localization under the working conditions of multiple camera postures and moderate occlusion, showing strong potential for engineering applications and providing reliable visual perception technology support for automated plastering operations.

Keywords: stereo vision ; depth restoration ; partial occlusion ; plastering robot

PDF (4848KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

左鹏, 郑正鼎, 高全杰, 吴林飞, 王红霞. 面向泥浆遮挡的涂抹机器人双目视觉定位方法研究[J]. 工程设计学报, 2026, 33(1): 65-75 doi:10.3785/j.issn.1006-754X.2026.05.247

ZUO PENG, ZHENG Zhengding, GAO Quanjie, WU Linfei, WANG Hongxia. Stereo visual localization method for plastering robots under mud occlusion[J]. Chinese Journal of Engineering Design, 2026, 33(1): 65-75 doi:10.3785/j.issn.1006-754X.2026.05.247

随着建筑智能化的发展,传统人工砌筑因效率低、质量不稳定等问题而难以满足现代施工要求[1]。泥浆涂抹作为砌筑施工的关键工序,其质量直接关系着建筑结构的性能。采用泥浆涂抹机器人可提升砌筑施工的自动化水平[2],但现场泥浆飞溅常常导致砖块涂抹面被遮挡,严重干扰机器人对砖块涂抹面的识别与定位,制约其作业精度与效率。因此,急需具有抗遮挡性能的识别与定位方法,来提升涂抹机器人在复杂工况下的实用性和工作稳定性。

目前,目标定位主要采用点云处理技术、2D图像与深度图像融合技术、端到端三维位姿估计方法和基于强化学习的方法。点云处理技术通过模型匹配[3]、几何特征提取[4]或欧式聚类[5]等实现空间定位。如:Chen等[6]基于结构光点云与CAD模型配准,实现了大目标定位;Biglia等[7]通过提取冠层中心点和聚类识别,实现了葡萄行的精准检测。2D图像与深度图像融合技术借助深度学习模型完成实例分割[8]及关键点提取,再结合相机内参数估算三维位置。如:Jin等[9]利用YOLOv8n增强模型并结合深度信息,实现了苹果3D定位;Aarthi等[10]利用Mask R-CNN模型实现了废物分割与抓取点提取。端到端三维位姿估计方法通过神经网络直接估计目标的姿态,避免了传统几何建模与特征匹配的步骤。如:Liu等[11]设计了一种纹理-形状引导的端到端网络,实现了单模型、多物体姿态的实时估计。基于强化学习的方法是机器人通过学习主动观察策略,能够自适应调整视角或传感器姿态,以获取更准确的观测信息,从而提升位姿估计精度。如:Ni等[12]提出了一种结合特征度量优化与深度强化学习的框架,实现了高精度、高效率的物体姿态估计。单一的点云处理技术过于依赖点云质量,不适用于目标被遮挡的场景。传统的2D图像与深度图像融合技术在深度信息缺失或受遮挡干扰的情况下易受到深度空洞、深度覆盖等问题的影响,导致位姿估计结果不稳定。而端到端位姿估计方法和强化学习策略虽然在一般的目标定位任务中展现了潜力,但在砖块涂抹面定位任务中,由于受泥浆遮挡导致的深度缺失、轮廓模糊和局部几何结构缺失等的影响,其性能仍受到明显限制。

此外,深度图像的质量是影响定位精度的关键因素[13]。复杂光照和物体遮挡等均会引发深度空洞、轮廓模糊等问题[14],导致点云质量下降。已有研究尝试从图像补全和深度引导等方面进行优化。如:Liu等[15]构建了彩色-深度联合模型,来提升修复精度;Wang等[16]利用三边约束进行稀疏表示,以改善深度边缘填充效果。常见的深度修复方法主要包括彩色-深度联合补全、深度梯度与边缘约束优化、学习型深度补全以及基于几何先验的补全方法。彩色-深度联合补全和深度梯度与边缘约束优化方法在一般场景中表现良好,但缺乏对规则几何轮廓的显式建模;学习型与几何型方法则在遮挡导致的结构缺失的情况下仍可能产生深度模糊或突变,因此也难以直接应用于泥浆遮挡下的涂抹面定位研究。

针对耐火砖定位需求以及处理深度信息时遮挡干扰、深度缺失、轮廓模糊等问题,本研究以耐火砖为对象,构建机械臂与双目相机协同的实验平台,提出一种基于机器视觉的遮挡区域深度修复与涂抹面定位方法。将深度修复与点云处理相结合,实现对砖块涂抹面的位姿计算;针对泥浆遮挡造成的深度缺失、深度覆盖等问题,构建了修复模型来对深度异常区域进行补偿,以提高定位精度;同时,在涂抹面实例分割中引入轮廓约束,区分涂抹面与背景深度,以保证边缘结构的完整性。

1 实验平台与系统标定

1.1 实验平台

砖块涂抹面定位实验平台如图1所示。其中:UR10六轴机械臂承担主要执行任务,用于砖块涂抹面识别定位后喷涂动作的精准实施;Intel RealSense D435深度相机作为双目视觉传感器,能够同时采集彩色图像和深度图像,为涂抹面识别、深度修复和三维空间定位提供原始输入数据。

图1

图1   砖块涂抹面定位实验平台

Fig.1   Brick plastered surface positioning experimental platform


1.2 双目相机成像

双目相机根据特征点在2个成像平面中的视差、相机内参数及基线长度计算出特征点的位置信息。本研究采用的双目相机在出厂前已精确标定,故可直接使用其标定参数进行深度计算与空间定位。相机的主要参数如表1所示。

表 1   双目相机主要参数

Table 1  Main parameters of stereo camera

参数数值
焦距f/mm4.8
主点坐标(cx, cy)/像素319.5, 339.5
基线长度T/mm50.1

新窗口打开| 下载CSV


双目相机的成像原理如图2所示。在理想状态下,左、右摄像头的成像平面共面且水平方向(X 向)对齐。

图2

图2   双目相机成像原理示意

Fig.2   Schematic of stereo camera imaging principle


设空间中目标点 P 在相机坐标系中的坐标为 (x, y, z),其在左、右成像平面的投影点分别为Pl (xl, yl)、Pr (xr, yr),可得其深度坐标z为:

z=fTxl-xr

在以左相机光心Ol为原点的相机坐标系下,目标点 P (x, y, z)与左成像平面的投影点Pl (xl, yl)满足以下关系:

x=(xl-cx)zf, y=(yl-cy)zf

1.3 手眼标定

手眼标定是为了实现相机坐标系向机器臂基坐标系转换。本研究采用棋盘格手眼标定方法,如图 3所示。标定板为具有6×9个内角点、单格宽为25 mm的平面棋盘格。为了提高标定精度,共采集24组不同姿态相机的数据。通过控制UR10六轴机械臂末端执行器使相机产生平移与旋转,使棋盘格在相机视野中呈现多样的深度与角度,以避免位姿分布单一导致的标定不稳定性。

图3

图3   手眼标定(眼在手上)

Fig.3   Hand-eye calibration (eye-in-hand)


机械臂末端执行器相对于机器臂基坐标系的位姿为TBE ,而标定板坐标系相对于相机坐标系的位姿 TCO可以利用标定板图像通过透视-n-点(perspective-n-point,PnP)算法来获得。由于相机被固定在机械臂末端执行器上,其坐标系与末端执行器之间的空间转换关系可由一个恒定的手眼齐次变换矩阵X表示,使得机械臂在任意姿态n时,满足以下关系:

TBO=TBEnXTCnO

式中:TBO表示标定板在机械臂基坐标系下的固定位姿。

故当机械臂处于任意两个不同的拍摄位姿kl时,存在:

TElEkX=XTClCk

根据上述坐标系之间的相对关系,可将其转换为AX=XB矩阵方程求解问题。矩阵AB由机械臂末端执行器与标定板在不同拍摄位姿下的相对位姿变化计算得到。在满足机械臂多姿态运动且位姿变化充分的条件下,通过对多组AX=XB方程进行奇异值分解和最小二乘法求解,得到:

X=- 0.032 60.999 20.019 7-119.65- 0.034 90.018 6- 0.999 2271.61- 0.998 8- 0.033 20.034 341.050001

2 涂抹面深度修复与定位

2.1 深度修复与定位算法

本文提出了在砖块涂抹面局部遮挡下基于机器视觉的深度修复与定位算法。该算法的结构如图4所示。

图4

图4   深度修复与定位算法结构

Fig.4   Architecture of depth restoration and localization algorithm


算法包括涂抹面轮廓分割、深度修复和三维空间定位三部分。利用YOLOv11实例分割模型提取砖块轮廓,并针对遮挡、噪声和边缘模糊等问题构建深度修复模型,以提升深度数据的完整性;深度图像修复后生成三维点云,经密度加权、平面拟合与最小外接矩形计算后获得涂抹面在相机坐标系下的位置,最后通过手眼标定转换至机械臂基坐标系,为喷涂路径的规划提供精确的位姿信息。

2.2 涂抹面轮廓分割

为评估泥浆遮挡对涂抹面定位的影响,设置了无遮挡、轻度遮挡、中度遮挡和重度遮挡等4种工况。本文中遮挡率按泥浆覆盖区域占涂抹面有效区域的比例计算,如图5所示。随着遮挡率提升,砖块表面被泥浆局部或大面积覆盖,涂抹区域的边界逐渐模糊,这贴近实际砌筑中的复杂工况。基于上述工况,共采集1 280张不同泥浆遮挡率和不同拍摄角度(即相机光轴与涂抹面法向的夹角为0~35°)的砖块图像,以增强数据的多样性和可泛化能力。各遮挡率的数据集均按70%∶20%∶10%的比例划分为训练集、验证集和测试集。

图5

图5   泥浆遮挡工况

Fig.5   Mud occlusion working condition


常用的语义分割与实例分割模型包括YOLOv8-Seg、Mask R-CNN、FCN和DeepLab等。经过综合比较,选用YOLOv11作为涂抹面分割模型。原因如下:YOLOv11采用单阶段检测架构及多尺度特征提取,其推理速度明显优于Mask R-CNN、DeepLab等双阶段或密集像素级方法,能满足机器人实时检测要求;此外,深层特征融合和注意力机制使其对泥浆遮挡引起的局部结构变化更敏感,泛化能力优于FCN和DeepLab。因此,基于实时性、鲁棒性和适应性等方面的考虑,选择YOLOv11分割模型进行涂抹面轮廓分割。

2.3 深度修复

2.3.1 涂抹区域标记

利用YOLOV11实例分割模型输出砖块彩色图像,对其涂抹面轮廓边界点集合C=(xi, yi)通过像素对齐关系映射到深度图像,在深度图像上构建二值掩模函数E(x, y),用于标记涂抹面区域。其具体定义如下:

E(x, y)=1,    轮廓内部0,    轮廓外部

2.3.2 置信度分层

由于砖块涂抹面无遮挡时呈规则平面,其深度值在水平和垂直方向连续。深度突变通常意味着泥浆遮挡、光照干扰或传感器噪声导致的区域深度缺失。为避免将真实的涂抹面区域深度误判为异常,在连续性检测时结合了实例分割涂抹区域标记与局部梯度分析:在对涂抹面区域的像素点进行深度连续性判断时,仅当局部深度梯度超过阈值且该像素点位于掩模内部而非真实物体边缘附近时,才将它判定为异常深度区域。通过该策略,可有效区分涂抹面的自然边缘与由泥浆遮挡等引起的异常深度突变。

深度连续性检测用于判断像素点pi (x, y)的深度值变化在水平和垂直方向是否符合连续性原则,可定义为:

T(x, y)=(d2-d)-(d-d1)p2-p1

式中:T(x, y)表示像素点深度在指定方向上的连续度,d为当前像素点pi的深度值,d1d2分别为该方向上像素点pi相邻两像素点的深度值,p1p2分别为对应像素点在该方向上的坐标值。

结合连续性检测和深度值进行置信度评估,将涂抹面内的像素点进行分类。水平连续度Th和垂直连续度 Tv 均小于预先设定阈值Tt的像素点归为高置信度像素点;无效深度像素点对应深度为空值的像素点;其余的则归为低置信度像素点。像素点置信度分层如图6所示。高置信度区域所对应的深度信息被认为具有较高的可靠性,作为后续修复的基准;低置信度及无效深度区域则在修复过程中主要依赖于高置信度区域深度信息的指导进行补全和修复。

图6

图6   像素点置信度分层

Fig.6   Pixel confidence level stratification


2.3.3 深度修复模型

本研究采用置信度分层机制对砖块涂抹面的深度信息进行分层处理。通过对高置信度区域的梯度统计,建立梯度变化模型,预测待修复像素点的深度值。根据像素点置信度动态调整滤波权重,有针对性地修复低置信度和无效深度区域,同时保留高置信度区域的深度信息。引入轮廓信息约束,保证修复过程中边缘结构不被过度平滑,防止细节丢失。基于传统联合双边滤波,结合置信度分层、深度梯度预测和轮廓约束,构建深度修复模型,用于砖块涂抹面深度修复。

1)深度信息预测。

结合砖块涂抹面为规则平面的结构特点,利用高置信度区域内的梯度变化来构建深度预测模型,对低置信度和无效深度区域内目标像素点的深度值进行预测。设d (p)为像素点p的深度值,其在水平和垂直方向的梯度G (p)定义为:

G(p)=d(p+Δs)-d(p)

式中:s为指定方向的单位像素步长。

统计出涂抹面内高置信度区域像素点在水平和垂直方向的平均梯度Gx¯Gy¯,利用梯度信息构建深度预测模型。对于待修复像素点p,其预测深度 D' (p, q)可基于领域内高置信度像素点q的深度值进行预测:

D' (p, q)=d(q)+Δx(q, p)Gx¯+Δy(q, p)Gy¯

式中:x(q, p)y(q, p)分别为像素点q相对于p在水平和垂直方向的像素步长。

2)置信度分层加权。

传统联合双边滤波因滤波核参数固定且未区分深度覆盖与深度缺失区域,容易导致异常深度数据扩散。为此,本研究引入深度置信度分层机制,对高置信度、低置信度和无效深度区域分配不同的权重。此策略既保护了高置信度区域的原始深度,又防止了深度信息的错误扩散。置信度加权函数定义如下:

Q(x, y)=1,      高置信度0,      无效深度e- deσQ,  低置信度

式中:de为滤波器中心像素点与目标像素点的欧几里得距离,σQ为低置信度权重调节参数。

根据测试数据中置信度分布的统计结果可知,当σQ=0.1~0.2时均能获得深度信息分层的稳定性能,其中σQ=0.15时在深度修复误差和边界一致性方面为最优,因此将它作为固定参数用于所有实验。

3)轮廓信息约束。

传统联合双边滤波对引导彩色图像依赖过强,对深度边缘缺乏区分,当物体颜色变化与深度变化不一致时,基于颜色的边缘保持机制会应用错误。为了弥补其不足,本研究提出了轮廓信息约束。通过涂抹面二值掩模函数E(x, y)区分深度边缘,只有当邻域像素点q与待修复像素点p处于同一涂抹面轮廓区域时,才进行该涂抹面区域的修复。为实现轮廓信息约束,设计了轮廓约束权重We(p, q)

We(p, q)=α,E(p)=E(q)0,E(p)E(q)

式中:α为轮廓约束权重调节参数。

通过深度信息预测、置信度分层加权和轮廓信息约束,在传统联合双边滤波基础上构建了深度修复模型,从而实现对深度图像因局部泥浆遮挡导致的深度覆盖、深度缺失及边缘结构模糊等深度异常问题的自适应修复。深度修复模型可表示为:

W=qNpQm(q)We, m(q, p)
Dmnew(p)=1WqNpQm(q)We, m(q, p)Dm'(q, p)

式中:Qm(q)We, m(q, p)分别为第m个滤波器窗口的置信度分层权重和区域一致性约束权重,q为待修复像素点p领域N(p)内的像素点,Dm 为第m个滤波器窗口的深度值,Dm'(q, p)为待修复像素点p的预测深度值。

深度信息优化效果如图7所示。由图可知,修复后深度图像的边界较清晰,深度分布更连续。这主要得益于以下两方面的机制:其一,通过实例分割实现了轮廓约束,有效改善了边界模糊状况;其二,通过置信度分层机制结合分割区域标记与局部梯度分析,检测出深度异常区域,并通过深度修复模型进行补偿,从而显著提升了平面区域的深度完整性与连续性。

图7

图7   深度信息优化效果

Fig.7   Depth information optimization results


2.4 三维空间定位

涂抹面三维空间定位步骤如图8所示。

图8

图8   涂抹面三维空间定位步骤

Fig.8   Steps for three-dimensional spatial localization of plastered surface


2.4.1 深度图像转换为三维点云

深度图像转换为三维点云是基于双目相机成像原理实现的。根据式(2),根据相机内参数将图像中每个像素点的深度值映射到相机坐标系中,如图8(b)所示。

2.4.2 涂抹面平面拟合

为提取点云中涂抹面的平面参数,本研究引入一种点云密度加权的随机采样一致性(random sample consensus,RANSAC)平面拟合方法[17]。该方法将点云局部密度作为权重,在传统RANSAC框架下结合加权最小二乘优化,有效应对因相机倾斜拍摄造成的点云分布不均与噪声干扰问题。

设目标点云集合K=pi=(xi, yi, zi)i=1N,平面模型的参数方程为:

ax+by+cz+dp=0

式中:向量 n =(abc)表示平面法向量,dP为平面到原点的距离。

像素点pi的密度ρi 定义为其邻点之间平均距离的倒数,即:

ρi=1i=1Ndi/N

式中:di 为素点pi与邻点之间的距离。

据此构建加权误差函数,并结合加权RANSAC平面拟合,得到最优平面参数及对应的点集合,如图8(c)所示,其属于拟合平面的有效点云区域。

2.4.3 涂抹面轮廓特征点提取

为进一步精确提取砖块涂抹面的特征点,引入平面投影与最小外接矩形相结合的方法。首先,依据涂抹面法向量 n =(abc)构造旋转矩阵,使其对齐Z向,实现点云的二维投影,如图8(d)所示;其次,采用最小外接矩形提取该投影的矩形边界角点坐标,如图8(e)所示;最后,通过逆变换恢复至原三维坐标系,获取角点的三维位姿,如图8(f)所示。为实现涂抹装置与机械臂协同作业,通过手眼标定矩阵将角点坐标转换至机械臂基坐标系下,为涂抹路径的规划提供空间约束。

3 实验验证

3.1 砖块涂抹面分割性能实验

用于模型训练的硬件包括Intel i5-11400H处理器、GeForce RTX 3050显卡以及16 GB内存。YOLOv11实例分割模型训练参数如表2所示。

表2   YOLOv11实例分割模型训练参数

Table 2  Training parameter for YOLOv11 instance segmentation model

参数数值
训练数量/轮200
批处理尺寸16
学习率0.01
权重衰减度0.000 5
输入图像尺寸/像素1 280×720
预训练权重yolo11n-seg.pt

新窗口打开| 下载CSV


为了评估模型的检测效果和整体性能,本文选取了常用的评价指标,包括精确率A、召回率R及精度均值Pm。其计算公式分别为:

A=TpTp+Fp, R=TpTp+FnPm=1Uu=1UAuRu

式中:Tp为正确识别的正样本数,Fp 为误检的负样本数,Fn 为漏检的正样本数,u为类别编号,U为类别总数。

训练完成后,用验证集对模型进行评估。模型识别精度均值如图9所示。由图可知,约经过50次迭代后,模型性能基本趋于稳定,精度均值收敛至0.974。将此时的模型参数视为最优模型参数进行保存,用于后续测试与性能评估。

图9

图9   模型识别精度均值

Fig.9   Average recognition accuracy of model


为综合评估模型的识别性能,采用综合识别性能参数F1

F1=2×A×RA+R

对不同遮挡工况下的砖块涂抹面图像进行测试,得到的识别性能参数如表3所示,轮廓分割效果如图10所示。

表3   不同遮挡工况下识别性能参数

Table 3  Recognition performance parameters under different occlusion working conditions

遮挡工况F1
无遮挡0.964
轻度遮挡0.932
中度遮挡0.915
重度遮挡0.882

新窗口打开| 下载CSV


图10

图10   不同遮挡工况下涂抹面轮廓分割效果

Fig.10   Segmentation results of plastered surfaces under different occlusion working conditions


3.2 砖块涂抹面定位实验

为验证本文提出的涂抹面深度修复与定位方法的性能,基于实验平台开展实验,对比本文方法与其他常用深度修复方法在定位精度与速度上的表现,评估机械臂在不同姿态和不同遮挡工况下的定位精度稳定性。定位场景及实验如图11所示。

图11

图11   涂抹面定位场景及实验

Fig.11   Scene and experiment of plastered surface localization


3.2.1 不同深度修复方法性能对比实验

为全面验证本文方法在遮挡工况下的有效性,本研究将各向异性扩散(anisotropic diffusion, AD)[18]、联合双边滤波(joint bilateral filter,JBF)[19]、马尔可夫随机场(Markov random field,MRF)[20]、分层双边滤波(hierarchical bilateral filter,HBF)[21]以及噪声感知滤波函数(noise perception filter,NPF)[22]等5种经典深度修复方法作为对照组,进行三轴定位误差和运行时间对比实验。

为接近实际涂抹作业工况,实验中设置了遮挡和相机姿态变化等实验条件。遮挡条件包括无遮挡和中度遮挡工况;相机姿态变化条件包括0~20°的拍摄角度和400~600 mm的拍摄距离,涵盖了机器人作业时典型观测范围。

对各方法的定位性能进行评估。将通过各方法修复后的深度图像生成点云和平面拟合,获得涂抹面的三维位姿,并计算XYZ三个方向的定位误差,并计算其平均值,结果如图12所示。由图可知:在无遮挡工况下,各方法在边缘细节保持性方面有所差异;在中度遮挡工况下,因受到泥浆遮挡导致的深度突变与大面积深度缺失的影响,经典方法的定位误差明显比本文方法大。本文方法在2种遮挡工况下的三轴平均定位误差均为最小,显示出最强的遮挡区域恢复能力。

图12

图12   不同深度修复方法定位误差对比

Fig.12   Comparison of localization errors among different depth restoration methods


为进一步考察方法的实时性,统计了各方法在相同硬件平台的平均运行时间,结果如表4所示。由表可知:MRF与HBF的运行时间明显较长,因其依赖迭代优化或多层级处理;AD、JBF和NPF的运行速度稍快,但其修复精度不能满足机器人定位需求;本文方法在保持高精度的同时运行时间最短,在速度与精度之间实现了良好的平衡,更能满足涂抹机器人在线定位的实时性要求。

表4   不同深度修复方法的平均运行时间

Table 4  Average runtime of different depth restoration methods

方法平均运行时间/s
AD4.47
JBF6.61
MRF8.61
HBF8.53
NPF5.68
本文方法2.82

新窗口打开| 下载CSV


3.2.2 机械臂姿态变化下的三轴定位误差分析

为验证本文方法在机械臂多姿态条件下的适应性,构建了接近实际涂抹场景的测试环境:在每次数据采集时耐火砖随机摆放,使其平移与旋转后呈现不同的姿态,且涂抹面设为泥浆中度遮挡,以模拟真实作业中的局部覆盖。在此基础上,进一步考察拍摄角度(0~40°)和拍摄距离(300~900 mm)的变化对定位精度的影响,并获取各姿态下的三轴平均定位误差。根据实验结果绘制角度-距离二维定位误差热力图,如图13所示。

图13

图13   角度-距离二维定位误差热力图

Fig.13   Angle-distance 2D localization error heatmap


图13可知,随着拍摄角度增大,定位误差整体提高。当拍摄角度超过30°时,误差增幅明显,部分误差已接近或超过允许值(5 mm)。这主要是由于随着拍摄角度增大,双目视差的有效覆盖区域减小,涂抹面可匹配特征点的密度降低,定位噪声和误差扩散加剧。同时,拍摄距离对定位误差也有显著影响,当距离从300 mm增至900 mm,涂抹面在成像平面的投影尺寸减小,其像素点随之减少,导致可用于视差计算的有效匹配点减少,深度分辨率下降,以致定位精度降低。综合来看,最佳相机姿态为0~20°的小角度和400~600 mm的中等距离。

3.2.3 泥浆遮挡率变化下的三轴定位误差分析

为验证本文方法在不同泥浆遮挡率下的鲁棒性与精度,设计了对比实验。实验组采用本文方法,对照组则无深度修复,直接采用基于原始深度图像生成的点云并执行相同的处理流程。实验中保持机械臂姿态一致,拍摄角度为0,拍摄距离为600 mm,仅改变泥浆遮挡率。

泥浆遮挡工况下深度图像与特征点的提取如图14所示。由图可知:对照组因泥浆遮挡导致点云局部凸起、空洞和边缘模糊等问题,破坏了原始平面结构,使得提取的角点定位误差较大;实验组通过引入深度修复模型,有效地对遮挡、空洞和边缘模糊区域的深度进行修复,显著提升了点云的完整性与平整度,从而提升了角点定位的准确性。

图14

图14   泥浆遮挡工况下深度图像与特征点提取

Fig.14   Depth images and feature point extractions under mud occlusion working conditions


记录不同泥浆遮挡率下的三轴定位误差,并将数据绘制成箱线图,如图15所示。

图15

图15   不同泥浆遮挡率下三轴定位误差

Fig.15   Three axis localization errors under different mud occlusion rates


图15(a)可知,在无遮挡工况下,实验组始终表现出比对照组更小的三轴定位误差,XYZ向的平均定位误差分别减少17.8%、16.1%和12.6%。XY向定位误差的减小主要是由于深度修复过程中引入的轮廓边缘约束有效解决了深度信息中边缘模糊的问题,特征点提取机制使得平面内的几何结构得到了更精确的拟合;Z向定位主要依赖于双目相机的直接测距精度,主要通过修复深度缺失实现深度信息优化,因此相较于平面的XY向,Z向定位误差降低幅度相对有限。

图15(b)至图15(f)可知:在轻度和中度遮挡工况下,随着泥浆遮挡率增大,三轴定位误差有所增大,且对照组在高遮挡率下误差增大显著,最大误差远超涂抹机器人5 mm的定位误差阈值;实验组XYZ向的平均定位误差相比对照组分别减少23.8%、21.2%、25.1%;当遮挡率不超过25%时,实验组的误差始终控制在5 mm以内,且在30%遮挡率下仍然有较好的优化效果,XYZ向的平均误差相比对照组分别减少了1.71、1.48和2.73 mm。

实验组三轴定位误差显著减小主要归因于深度修复对涂抹面局部泥浆遮挡造成的深度覆盖区域的有效补偿。

4 结 论

为满足砌筑施工中涂抹机器人对砖块涂抹面快速、精准定位的需求,针对泥浆飞溅引起的涂抹面局部遮挡问题,设计了一种基于机器视觉的局部遮挡涂抹面修复与定位方法。主要工作如下:

1)构建了集轮廓分割、深度修复和三维空间定位于一体的砖块涂抹面定位框架,实现了泥浆局部遮挡工况下的涂抹面精准定位。

2)设计的深度修复模型有效弥补了环境噪声等因素导致的深度缺失和边缘模糊等缺陷。在无遮挡工况下,深度修复后XYZ向的平均定位误差分别减少17.8%、16.1%和12.6%。

3)采用本文方法能显著减小遮挡导致的定位误差。在轻度和中度遮挡工况下,XYZ向的平均定位误差分别减少23.8%、21.2%和25.1%。当遮挡率不超过25%时,最大误差控制在5 mm以内。

本文方法在相机多姿态变化和泥浆中度遮挡等典型工况下具有较高的定位稳定性,为涂抹机器人进一步适应复杂施工环境提供了支撑。未来将结合工业视觉与多机器人协同,拓展本文方法在大规模、多目标、多遮挡砌筑场景中的应用。

参考文献

章严.

传统抹灰与抹灰机器人的应用分析

[J]. 绿色建造与智能建筑, 20251): 96-98.

[本文引用: 1]

ZHANG Y.

Application analysis of traditional plastering and plastering robots

[J]. Green Construction and Intelligent Building, 20251): 96-98.

[本文引用: 1]

张广川.

可实现自动砌墙的建筑机器人设计

[J]. 机械, 2011388): 79-80.

[本文引用: 1]

ZHANG G C.

Design of building robot that can realize automatic wall-built

[J]. Machinery, 2011388): 79-80.

[本文引用: 1]

LI HZENG Q FZHUANG T Det al.

Accurate pose estimation of the texture-less objects with known CAD models via point cloud matching

[J]. IEEE Sensors Journal, 20232321): 26259-26268.

[本文引用: 1]

张旭辉杨骏豪杨文娟.

基于双目视觉的掘进装备定位系统移站自主标定方法

[J]. 工程设计学报, 2025321): 1-10.

[本文引用: 1]

ZHANG X HYANG J HYANG W Jet al.

Automatic calibration method for station transfer in tunneling equipment positioning system based on binocular vision

[J]. Chinese Journal of Engineering Design, 2025321): 1-10.

[本文引用: 1]

张宇廷王宗彦王曦.

改进K-means聚类算法的自适应Canny算子工件边缘检测

[J]. 组合机床与自动化加工技术, 20225): 1-5.

[本文引用: 1]

ZHANG Y TWANG Z YWANG Xet al.

Edge detection of workpiece based on improved K-means clustering algorithm and adaptive canny algorithm

[J]. Modular Machine Tool & Automatic Manufacturing Technique, 20225): 1-5.

[本文引用: 1]

CHEN J LWEI X LLIANG X Qet al.

High precision 3D reconstruction and target location based on the fusion of visual features and point cloud registration

[J]. Measurement, 2025243116455.

[本文引用: 1]

BIGLIA AZAMAN SGAY Pet al.

3D point cloud density-based segmentation for vine rows detection and localisation

[J]. Computers and Electronics in Agriculture, 2022199107166.

[本文引用: 1]

ZHANG X LLI H LMENG F Met al.

Segmenting beyond the bounding box for instance segmentation

[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2022322): 704-714.

[本文引用: 1]

JIN T THAN X ZWANG P Get al.

Enhanced deep learning model for apple detection, localization, and counting in complex orchards for robotic arm-based harvesting

[J]. Smart Agricultural Technology, 202510100784.

[本文引用: 1]

AARTHI RRISHMA G.

A vision based approach to localize waste objects and geometric features exaction for robotic manipulation

[J]. Procedia Computer Science, 20232181342-1352.

[本文引用: 1]

LIU XWANG HXUE S Bet al.

SEMPose: a single end-to-end network for multi-object pose estimation

[J]. Neurocomputing, 2025654131194.

[本文引用: 1]

NI P YANG M H.

Graduated non-convex feature-metric-based 6D object pose refinement via deep reinforcement learning

[J]. Robotics and Autonomous Systems, 2025194105177.

[本文引用: 1]

ZHAO H WMA W HJI P Ret al.

Modeling the measurement accuracy for binocular stereo vision system

[J]. Optics Express, 2025339): 19051-19066.

[本文引用: 1]

BI XYANG BZENG Jet al.

A novel holes filling method based on layered depth map and patch sparsity for complex-scene images

[J]. Microelectronics Journal, 2021114105140.

[本文引用: 1]

LIU WCHEN X GYANG Jet al.

Robust color guided depth map restoration

[J]. IEEE Transactions on Image Processing, 2017261): 315-327.

[本文引用: 1]

WANG Z YHU J HWANG S Zet al.

Trilateral constrained sparse representation for Kinect depth hole filling

[J]. Pattern Recognition Letters, 20156595-102.

[本文引用: 1]

叶锦华林旭敏吴海彬.

基于DBSCAN的改进RANSAC点云平面拟合算法

[J]. 湖南大学学报(自然科学版), 2025522): 76-87.

[本文引用: 1]

YE J HLIN X MWU H B.

Improved RANSAC point cloud plane fitting algorithm based on DBSCAN

[J]. Journal of Hunan University (Natural Sciences), 2025522): 76-87.

[本文引用: 1]

徐岩松张爱军杨萌.

基于局部梯度统计的自适应各向异性扩散

[J]. 激光杂志, 2023448): 60-64.

[本文引用: 1]

XU Y SZHANG A JYANG M.

Adaptive anisotropic diffusion based on local gradient statistics

[J]. Laser Journal, 2023448): 60-64.

[本文引用: 1]

RUHELA RGUPTA BSINGH LAMBA S.

An efficient approach for texture smoothing by adaptive joint bilateral filtering

[J]. The Visual Computer, 2023395): 2035-2049.

[本文引用: 1]

WU Z RLIN D HTANG X O.

Deep Markov random field for image modeling

[C]//Computer Vision-ECCV 2016. ChamSpringer2016295-312.

[本文引用: 1]

万琴朱晓林陈国泉.

分层联合双边滤波的深度图修复算法研究

[J]. 计算机工程与应用, 2021576): 184-190.

[本文引用: 1]

WAN QZHU X LCHEN G Qet al.

Research on depth map restoration algorithm based on hierarchical joint bilateral filter

[J]. Computer Engineering and Applications, 2021576): 184-190.

[本文引用: 1]

LIANG HLI NZHAO S R.

Salt and pepper noise removal method based on a detail-aware filter

[J]. Symmetry, 2021133): 515.

[本文引用: 1]

/