新颖的曲面手掌视触觉传感器
A novel curved palm visuotactile sensor
通讯作者:
收稿日期: 2024-11-20
| 基金资助: |
|
Received: 2024-11-20
| Fund supported: | 国家重点研发计划资助项目(2023YFB4705000);国家自然科学基金资助项目(62303455,62273342,62122087);北京自然科学基金资助项目(L233006);多模态人工智能系统国家重点实验室青年计划资助项目. |
作者简介 About authors
胡静怡(1997—),女,博士生,从事机器人触觉感知研究.orcid.org/0000-0003-2664-0121.E-mail:
大多数现有的机器人视触觉传感器由于采用平面式感知结构,在复杂三维环境和精细操作任务中面临接触信息缺失、深度感知不足的局限性. 为此,提出曲面手掌视触觉传感器,其创新性曲面结构设计将有效感知区域扩展至三维空间,显著地提升触觉感知深度和接触信息完整性. 建立基于双目立体视觉折射光线追踪模型的点云重建框架,用于生成高精度的三维触觉点云数据. 为了提高数据处理效率和准确性,提出高效的点云显著性检测算法,以实现关键接触区域的智能识别与实时点云提取. 实验结果表明,所提传感器的结构设计和点云重建框架具有良好的鲁棒性,三维触觉点云感知精度达到0.20 mm,点云重建帧率达到30 帧/s,最大按压深度为10 mm. 该传感器能够精准实时地提取显著接触点云,为机器人在复杂环境中的精细操作提供了有力支持.
关键词:
A curved palm visuotactile sensor was proposed to address the challenges faced by existing robotic visuotactile sensors, as most of the sensors employ planar sensing structures and have the limitations of incomplete contact information acquisition and insufficient depth perception in complex 3D environments and delicate manipulation tasks. The innovative curved structural design that extended the effective sensing area into the 3D space significantly enhanced the tactile perception depth and contact information integrity. A point cloud reconstruction framework using the binocular stereo vision-based refractive ray tracing model was established to generate high-precision 3D tactile point cloud data. An efficient point cloud saliency detection algorithm that enabled intelligent recognition and real-time extraction of key contact regions was proposed to improve the efficiency and accuracy of data processing. Experimental results demonstrated that the structural design and the point cloud reconstruction framework of the proposed sensor exhibited strong robustness, achieving a 3D tactile point cloud perception accuracy of 0.20 mm, a point cloud reconstruction frame rate of 30 frames per second, and a maximum pressing depth of 10 mm. The sensor can precisely extract the salient contact point clouds in real time, providing robust technical support for robotic fine manipulation in complex environments.
Keywords:
本文引用格式
胡静怡, 崔少伟, 张少林, 王硕.
HU Jingyi, CUI Shaowei, ZHANG Shaolin, WANG Shuo.
作为主流视触觉传感器之一,GelSight传感器[12]创新性地采用光度立体算法来重建接触表面的高精度三维几何形状,在机器人触觉感知和操作领域取得了丰富的研究成果[13-14]. 为了增强传感器的灵活性,研究人员进一步在GelSight的基础上改进结构,设计带有曲面接触面的GelSight类传感器[15-17]. 然而,由于光度立体算法本身的局限性,这些曲面传感器在三维几何形状估计中存在较大的误差,同时光学路径设计复杂,制造工艺难度较高. 除了GelSight类传感器,一些研究团队还开发了其他能够感知三维接触几何形状的曲面视触觉传感器. 例如,SoftBubble传感器[18]利用深度相机捕捉弹性体表面的形变,实现了三维触觉重建. 然而,这类传感器通常成本高昂,制造工艺复杂,且在实际应用中仍有较大的改进空间. 为了解决上述问题,近期Cui等[19]提出GelStereo视触觉传感器,采用双目立体视觉算法重建接触表面的三维几何形状. 该传感器具有较高的触觉点云重建精度,并且传感器形状易于扩展至曲面,为曲面视触觉传感器的设计提供了新的思路. 在此基础上,Hu等[20]设计了一种曲面手掌视触觉传感器,可以更灵活地感知复杂物体表面的三维形状. 然而,其触觉感知深度范围仍然有限,显著接触点提取效率有待提高.
为了解决以上问题,提出一种新颖的曲面手掌视触觉传感器结构. 使用基于RSRT的三维触觉点云重建及标定方法来获取精准三维触觉点云,并提出触觉点云显著性检测算法来提取显著接触点云. 改进后的传感器不仅具备更大的接触深度范围,还能稳定、实时地提取显著接触点云,显著提升了数据处理效率与感知精度.
1. 传感器硬件结构设计
图 1
图 1 传感器硬件结构概念设计以及实物图
Fig.1 Conceptual design and physical diagram of sensor hardware structure
凝胶的材料选用Smooth-On品牌的SOLARIS全透明硅胶和Slacker硅触变剂. 在制作过程中,将SOLARIS的A、B组分和Slacker按照1∶1∶5的比例混合,并搅拌均匀. 将混合的硅胶液体倒入组装好的模具中,在23 ℃下经过24 h凝固成型. 经过专业检测机构测试,凝固后硅胶的硬度为45 Shore 00,折射率为1.41,泊松比为0.46,弹性模量为4.52×105 Pa.
标记点的形状和排列方式如图2所示,由11圈圆形标记点构成环形分布. 标记点的间距(即空间分辨率)为1.67~2.24 mm. 这种标记点布局设计能够确保双目相机在共同视野内全面捕获凝胶层表面的标记点图像. 通过双目立体视觉算法,传感器可以重建标记点的高精度三维点云,以准确感知传感器表面的接触几何形状,满足均匀性环境下的精细触觉感知需求,为未来拓展至非均匀性环境中的复杂触觉感知奠定基础.
图 2
相比于此前的曲面手掌视触觉传感器结构,本研究所提传感器中的凝胶模块经过显著的改进,如图3所示. 传统的凝胶模块为球壳状,其凝胶层厚度仅为约5.5 mm,极限接触深度较小,限制了触觉感知能力. 改进后的凝胶模块采用半球形设计,半径为32.5 mm,凝胶层厚度增加,形变范围显著扩大. 这种设计不仅提高了传感器对复杂接触情况的适应能力,还使得触觉感知更加灵敏和准确. 此外,半球形凝胶模块的几何形状更利于提高标记点的分布均匀性,从而进一步提升三维重建的精度和稳定性. 新的设计为传感器在机器人触觉感知任务中的应用奠定了坚实基础,特别是在复杂表面形状的高精度感知中展现出显著优势. 在实际应用中,传感器样机已被安装在机械臂末端进行了连续2 a的物体感知实验,累计完成了数千次接触数据采集. 在此期间,传感器始终处于正常运行状态,未出现明显的性能退化或材料损坏迹象,初步证明了其良好的耐久性.
图 3
图 3 凝胶模块改进前后形变范围示意图
Fig.3 Schematic of gel deformation range before and after improvement
2. 传感器触觉感知算法
2.1. 三维触觉点云重建
三维触觉点云重建的流程如图4所示,整体分为2个阶段:初始化阶段(T=0)和实时感知阶段(T>0). 在初始化阶段(T=0),传感器处于未接触状态,通过双目相机获取初始的双目触觉图像. 随后,标记点检测模块对图像中的标记点进行中心位置的检测,提取每个标记点的像素坐标. 接着,中心坐标被输入到标记点立体匹配模块中进行匹配处理. 由于标记点的环形排列具有固定的几何结构,标记点排序变得简单且高效. 最后,利用基于折射模型的RSRT算法对标记点进行三维重建,从而生成初始状态下的三维触觉点云数据.
图 4
图 5
图 5 标记点检测跟踪以及三维重建效果
Fig.5 Marker detection, tracking and 3D reconstruction results
具体而言,RSRT模型通过分析双目立体视觉系统中光线在不同介质中的传播轨迹,将标记点从二维图像映射到三维空间,从而实现高精度的三维触觉点云重建. 如图6所示,从标记点
图 6
给定某标记点在左、右目图像中的像素坐标,RSRT模型利用双目相机参数、介质的折射率参数
图 7
图 7 三维触觉点云重建参数标定示意图
Fig.7 Schematic diagram of parameter calibration for 3D tactile point cloud reconstruction
欧氏距离的目标函数
式中:
由于棋盘格的水平边缘垂直于竖直边缘,表示垂直性的目标函数可以设计为
该目标函数表示图7(b)右图中红线对应的向量垂直于蓝线对应的向量.
最终的目标函数设计为
式中:
经过标定后,
2.2. 触觉点云显著性检测
为了从重建的完整触觉点云中提取发生接触的部分,针对GelStereo Palm 2.0传感器提出触觉点云显著性检测算法,算法流程如图8所示. 首先,判断传感器是否与物体发生稳定接触. 在传感器初始化、未发生接触时,记录三维触觉点云的初始位置
图 8
图 8 触觉点云显著性检测算法流程图
Fig.8 Flowchart of tactile point cloud saliency detection algorithm
式中:
如果
式中:
在发生稳定接触后,使用基于自适应阈值的方法来提取显著点云
式中:
3. 三维触觉点云重建实验
为了验证传感器结构和触觉感知算法的鲁棒性,设计定量实验来评估传感器三维触觉点云重建的精度. 实验平台如图9所示,将未添加标记点和涂层的传感器固定在基座上,在高精度三维直线导轨上固定探针,设定探针的移动轨迹,使得探针按照标记点的位置在传感器表面进行按压. 每个按压位置以0.5 mm的步长从0到4.0 mm的深度进行8次按压;一共设置397个按压位置. 每次按压时记录双目图像,并从中提取探针的中心位置. 使用标定过的RSRT模型对每次按压的点进行三维重建. 该过程重复5次,一共采集397×8×5=15 880组数据.
图 9
图 9 三维触觉点云重建定量实验平台
Fig.9 Quantitative experimental platform for 3D tactile point reconstruction
计算重建的三维点位置
第r圈
表 1 每圈按压位置的三维重建平均误差
Tab.1
| r | Em/mm | r | Em/mm | |
| 1 | 0.21 | 7 | 0.19 | |
| 2 | 0.18 | 8 | 0.19 | |
| 3 | 0.17 | 9 | 0.20 | |
| 4 | 0.19 | 10 | 0.22 | |
| 5 | 0.18 | 11 | 0.28 | |
| 6 | 0.19 | 均值 | 0.20 |
总结现有基于标记点的曲面视触觉传感器的性能数据,包括平均三维点云重建误差
表 2 基于标记点的曲面视触觉传感器的性能对比
Tab.2
4. 物体形状感知实验
为了进一步验证传感器的性能和触觉感知算法的有效性,设计物体形状感知实验. 实验选用6种不同形状的3D打印物体、3种日常物品(如螺丝、剪刀、U盘)以及手指来验证传感器的形状感知性能. 首先,使用物体或手指分别在传感器表面施加不同大小的按压力,定性观察触觉感知算法在不同接触条件下提取的显著点云的变化情况,实验结果如图10所示. 图中,第1列展示感知实验中使用的物体实物图,其余列依次展示按压过程中在不同力作用下提取的显著点云. 可以看出,随着按压力的增大,物体与传感器表面的接触深度和接触面积逐渐增加,显著点云逐步覆盖更大的区域. 同时,提取的显著点云形状逐渐接近实际物体的轮廓,能够准确反映物体的三维几何形状特征. 这表明提出的触觉点云显著性检测算法在不同接触条件下具有良好的鲁棒性. 此外,实验结果还表明该算法对不同形状和材质的物体具有较强的泛化能力. 在面对具有复杂几何形状的3D打印物体时,算法依然能够准确提取关键的显著点云,且在按压过程中保持形状的连贯性和稳定性. 这一结果证明了本方法在复杂触觉感知任务中的广泛适用性,为机器人在真实环境中的触觉感知与操作奠定了坚实的基础.
图 10
图 10 使用不同物体按压传感器过程中触觉感知算法提取的显著点云
Fig.10 Salient point clouds extracted by tactile sensing algorithm using different objects pressing on sensor
为了验证传感器按压的最大感知范围,将图10中不同形状的3D打印物体安装在三维导轨末端对传感器的中心位置进行按压. 结果表明,最大按压深度可以达到10 mm. 为了定量观察传感器对不同形状物体的感知精度,对传感器的中心位置进行不同深度的按压. 其中,最大深度设置为10 mm,按压步长设置为2 mm. 每次按压时记录显著三维触觉点云
式中:
实验结果如表3所示,其中dp表示按压深度. 对于不同形状的物体,传感器的平均形状感知误差在0.20 mm左右波动,展现了其在不同物体上的稳定性能. 随着dp的增加,平均误差略有上升,这可能是由凝胶模块在大形变范围内表现出的非线性特性所致. 尽管如此,传感器在所有实验条件下的总平均形状感知误差仅为0.21 mm,充分证明了其在物体形状感知任务中具有高精度和强鲁棒性,能够满足复杂触觉感知场景的需求.
表 3 不同物体在不同按压深度下的显著点云误差
Tab.3
| 物体 | Es/mm | |||||
| dp=2 mm | dp=4 mm | dp=6 mm | dp=8 mm | dp=10 mm | 均值 | |
| 圆形 | 0.08 | 0.16 | 0.23 | 0.26 | 0.33 | 0.19 |
| 五边形 | 0.11 | 0.14 | 0.25 | 0.25 | 0.31 | 0.20 |
| 六边形 | 0.18 | 0.21 | 0.19 | 0.26 | 0.35 | 0.23 |
| 三角形 | 0.15 | 0.17 | 0.21 | 0.23 | 0.33 | 0.21 |
| 半球形 | 0.13 | 0.16 | 0.20 | 0.25 | 0.29 | 0.20 |
| 四联半球形 | 0.16 | 0.15 | 0.24 | 0.31 | 0.38 | 0.23 |
| 均值 | 0.13 | 0.16 | 0.22 | 0.26 | 0.33 | 0.21 |
另外,为了验证传感器感知的实时性,对传感器三维触觉点云的感知速度进行测试. 在双目相机帧率为30帧/s的情况下,三维触觉点云重建速度达到30帧/s. 这一帧率能够满足日常的实时性需求. 在大多数机器人触觉感知任务中(如物体抓取、表面探索),30帧/s的触觉点云重建帧率已经能够提供流畅的感知体验.
5. 结 语
本研究提出了一种新颖的曲面手掌视触觉传感器,并针对其结构设计和算法进行全面的优化与验证. 首先,对传感器的凝胶模块进行改进,采用具有更大形变范围的半球形设计,使传感器具备更深的感知深度和更高的灵敏度,从而能够适应复杂的接触场景. 其次,三维触觉点云重建算法能够实现实时高精度的触觉感知. 另外,设计并实现了三维触觉点云显著性检测算法,用于自动提取显著接触点云. 该算法有效提高了触觉感知的效率和鲁棒性,能够稳定地在不同按压条件下提取出关键的触觉信息.
通过一系列三维触觉点云重建和形状感知实验,验证了改进后的传感器结构设计在复杂触觉感知任务中的稳定性,并证明了显著性检测算法在不同形状物体感知中的泛化能力和精确性. 实验结果表明,传感器能够以0.2 mm的精度感知触觉点云,最大按压深度可以达到10 mm. 重建的三维几何形状准确反映了物体的表面特征,展现了其在实际应用中的优越性能.
综上所述,本研究提出的曲面手掌视触觉传感器在结构设计、三维触觉点云重建和显著点云检测等方面取得了显著进展,为机器人在复杂环境下实现类人触觉感知提供了新的解决方案. 未来可以结合深度学习等机器学习方法,训练更高效的触觉模式识别模型,以增强触觉手掌对复杂触觉信息(如纹理识别、材质分类)的解析能力. 此外,将触觉手掌与其他感知模态(如视觉、力觉)相结合,构建多模态感知系统,可以进一步提升机器人对环境的综合理解能力. 例如,在机器人抓取任务中,触觉信息可以与视觉信息融合,实现更精确的物体定位与操作. 结合机器人的主动控制策略,研究传感器在物体形状主动探索、物体推动等任务中的应用也是重要研究方向之一. 通过设计智能触觉探索算法,机器人可以更高效地获取未知物体的几何与力学特性,为自主操作提供支持.
参考文献
Robotic tactile perception of object properties: a review
[J].
A soft thumb-sized vision-based sensor with accurate all-round force perception
[J].DOI:10.1038/s42256-021-00439-3 [本文引用: 1]
Novel tactile sensor technology and smart tactile sensing systems: a review
[J].DOI:10.3390/s17112653 [本文引用: 1]
基于压电薄膜传感器的机器人触觉识别系统
[J].
Robot tactile recognition system based on piezoelectric film sensor
[J].
Fully printed flexible fingerprint-like three-axis tactile and slip force and temperature sensors for artificial skin
[J].DOI:10.1021/nn506293y [本文引用: 1]
Tactile image sensors employing camera: a review
[J].DOI:10.3390/s19183933 [本文引用: 1]
面向机器人操作任务的视触觉传感技术综述
[J].DOI:10.11959/j.issn.2096-6652.202222
A survey of visuotactile sensing technologies for robotic manipulation
[J].DOI:10.11959/j.issn.2096-6652.202222
Hardware technology of vision-based tactile sensor: a review
[J].DOI:10.1109/JSEN.2022.3210210 [本文引用: 1]
The TacTip family: soft optical tactile sensors with 3D-printed biomimetic morphologies
[J].DOI:10.1089/soro.2017.0052 [本文引用: 1]
Vision-based sensor for real-time measuring of surface traction fields
[J].DOI:10.1109/MCG.2005.27 [本文引用: 1]
GelSight: high-resolution robot tactile sensors for estimating geometry and force
[J].DOI:10.3390/s17122762 [本文引用: 1]
Visuotactile sensors with emphasis on GelSight sensor: a review
[J].DOI:10.1109/JSEN.2020.2979662 [本文引用: 1]
Cable manipulation with a tactile-reactive gripper
[J].DOI:10.1177/02783649211027233 [本文引用: 1]
DIGIT: a novel design for a low-cost compact high-resolution tactile sensor with application to in-hand manipulation
[J].
In-hand object localization using a novel high-resolution visuotactile sensor
[J].DOI:10.1109/TIE.2021.3090697 [本文引用: 1]
GelStereo Palm: a novel curved visuotactile sensor for 3-D geometry sensing
[J].DOI:10.1109/TII.2023.3241685 [本文引用: 1]
MedUCC: medium-driven underwater camera calibration for refractive 3-D reconstruction
[J].DOI:10.1109/TSMC.2021.3132146 [本文引用: 1]
Depth estimation from stereo cameras through a curved transparent medium
[J].DOI:10.1016/j.patrec.2019.11.012 [本文引用: 1]
Refractive geometry for underwater domes
[J].
Soft biomimetic optical tactile sensing with the TacTip: a review
[J].DOI:10.1109/JSEN.2021.3100645 [本文引用: 1]
Finger-shaped GelForce: sensor for measuring surface traction fields for robotic hand
[J].
Vision-based tactile sensor mechanism for the estimation of contact position and force distribution using deep learning
[J].DOI:10.3390/s21051920 [本文引用: 1]
/
| 〈 |
|
〉 |

