基于自适应随动机构的机器人目标跟随
Robot target following based on adaptive follower mechanism
通讯作者:
收稿日期: 2022-03-14
基金资助: |
|
Received: 2022-03-14
Fund supported: | 国家自然科学基金资助项目(61873165,62173228,62103261) |
作者简介 About authors
陈宏鑫(1998—),男,硕士生,从事智能机器人、无人驾驶研究.orcid.org/0000-0002-9730-7900.E-mail:
针对机器人使用固定传感器容易丢失跟随目标的问题,提出基于自适应随动机构的行人跟随方法.基于任务需求设计随动式感知机构视野评价指标;在传统规划策略的基础上,提出结合底盘方向的改进策略和基于视野深度加权的自适应角度规划策略,改进随动机构的运动目标跟随效果. 为了提高随动RGB-D传感器的行人位置跟踪效果,使用YOLOv3算法进行目标检测,结合三维坐标解算与位置度量匹配,实现多目标位置的实时跟踪. 基于Gazebo仿真环境与RoboMaster机器人,实现机器人行人跟随功能. 所提规划策略能够取得综合最优的评分指标,并实现机器人对运动行人目标稳定的轨迹跟随. 实验结果证明了所提目标跟随方法的有效性.
关键词:
A pedestrian following method based on adaptive follower mechanism was proposed focusing on the problem that robots lose targets easily with fixed sensors. Based on task requirements, the field of view evaluation metrics of the follower perception mechanism were designed. On the basis of traditional planning strategies, an improved planning strategy derived from chassis direction and a depth weighting based adaptive angle planning strategy were proposed to improve the moving target following performance of the follower mechanism. To improve pedestrian position tracking with follower RGB-D sensor, the YOLOv3 algorithm was used for target detection, combined with 3D coordinate solving and position matching to achieve real-time tracking of multiple targets. Gazebo simulation platform and RoboMaster robot were used to implement robot's pedestrian following function. The proposed planning strategy is shown to achieve comprehensive optimal metrics and stable trajectory following to moving pedestrian targets, which proves the effectiveness of the target following method.
Keywords:
本文引用格式
陈宏鑫, 张北, 王春香, 杨明.
CHEN Hong-xin, ZHANG Bei, WANG Chun-xiang, YANG Ming.
人机协作是未来生产生活的主流方式. 跟随机器人能够自主跟随用户,帮助解放用户双手,进一步提升效率. 跟随机器人的实现重点在于辨认目标并实现鲁棒且安全的跟踪[1],如何使用成本低、可移植性强且通用的跟随方法,使移动机器人安全、鲁棒地在人的引导下实现自主跟随功能是研究的重点对象之一.
在机器人进行目标跟随时,由于传感器视野固定,快速移动的目标容易走出视野,导致跟踪失败. 研究者提出的多种对跟踪视野进行优化的解决方法可以分为2类. 1)增加传感器的数量以辅助定位目标. Dam等[2]使用手机IMU加速度信息进行辅助运动推断. Tee等[3]使用穿戴主动红外发射机构,基于接受信号强弱进行辅助定位. 部分研究者使用多传感器融合方法扩大跟踪视野,包括鱼眼全景相机[4]、相机与激光雷达融合[5]、外部环境相机[6]等. 这些方法虽然能够实现更大视野范围内跟踪目标的跟踪,但是传感器数量增加使数据量变多,算法的复杂度也相应提升;同时多传感器间须联合标定,这增加了机器人系统的硬件与使用成本. 2)在不额外增加传感器的条件下,将相机置于与机器人底盘运动分离的云台,单独进行随动控制,这样可以基于视觉伺服的方法扩大视野,实现对运动目标的持续跟踪[7]. 类2)的相关研究较少,且通常是对目标进行视觉伺服跟踪,没有关注视野内的障碍物信息. 这类解决方法须搭配深度传感器进行辅助避障,因此无法实现降低机器人硬件成本的目的.
本研究提出基于自适应随动机构的行人跟随方案. 将RGB-D传感器置于可以单独进行规划控制的机器人云台,基于彩色图像跟踪跟随目标,使用深度图像进行避障与路径规划,结合实时调整相机视野的自适应规划算法,使用单一传感器实现机器人在复杂环境下的行人跟随功能.
1. 行人位置多目标跟踪算法
实现行人目标的自主跟随功能须先确定跟随目标的位置. 本研究提出基于二维检测结果的实时行人位置跟踪算法.
1.1. YOLOv3目标检测网络
基于点云的三维检测方法虽能获得目标三维位置,但该方法算力要求较高,在机器人计算平台上较难达到实时检测要求. 本研究选用基于卷积神经网络的YOLOv3[13]算法对彩色图像进行实时目标检测.
图 1
图 1 YOLOv3算法中使用的残差网络结构
Fig.1 Residual network structure used in YOLOv3 algorithm
为了解决YOLO算法对小物体检测精度低的问题,YOLOv3算法引入多尺度特征图检测方法。在主干网络上分别生成32倍、16倍和8倍的降采样特征图,在不同尺度的特征图上均进行检测框预测,以实现不同尺寸物体的相同高精度检测效果. 相比其他网络模型,YOLOv3的量级轻,资源要求低,且满足跟随任务中的行人检测需求.
1.2. 三维坐标解算
检测算法能够获得目标在图像坐标系下的位置,在进行跟随时,跟随机器人还需要获得跟踪目标相对于底盘的三维坐标. 本研究基于针孔成像模型与深度信息解算目标三维位置.
基于相机针孔成像模型,可以推导出三维位置
式中:
假设检测框的中心点坐标为目标所在像素点,查询RGB-D传感器深度图像中对应点的深度值,通过式(1)计算目标在相机坐标系的三维坐标,结合相机外参转换到底盘坐标系并进行后续跟踪. 三维坐标解算的计算流程如图2所示.
图 2
1.3. 多目标匹配与跟踪
式中:
跟踪器的运动模型选择在目标平面的X轴和Y轴分别采用匀速运动模型,得到状态更新矩阵
式中:
在数据匹配阶段,使用在运动平面上的欧式距离作为匹配度量,计算公式为
式中:
对每帧检测结果,计算得到所有匹配权重后,使用Kuhn-Munkras算法[15]求解检测集与跟踪集的最优匹配. 根据匹配结果更新跟踪器状态,并管理跟踪器的生成与删除. 跟踪器匹配与更新算法的具体实现流程如下. 1)使用跟踪器预测结果与三维目标检测结果,计算匹配权重矩阵
2. 随动式感知机构角度规划算法
2.1. 传感器视野评价指标
传感器角度规划算法的研究较少,同时目标跟随、角度规划问题均是实际场景下的应用任务,较难进行准确的数学建模,因此该方向缺少普遍承认的评价指标,用于对比不同的传感器角度,这样除主观评价外很难对不同策略的优劣进行分析. 结合任务需求与运动规划领域研究成果,设计多项评价指标对跟随过程中随动传感器的视野进行全面评价,包含以下几个部分。
2.1.1. 跟踪目标位置
传感器的角度应使跟随目标保持在视野中央,以免当目标快速移动时出现丢失目标的情况.设置跟踪目标位置评价指标的计算公式为
式中:
对于每帧检测结果,判断相机画面中是否成功检测到跟踪目标. 若未检测到目标,则
2.1.2. 可通行区域占比
传感器须感知视野内的可通行区域,其区域占比应尽可能大,以便规划后续的运动路径. 可通行区域占比评价指标的计算公式为
式中:
2.1.3. 障碍物数量
仅考虑可通行区域大小的评价指标,可能会导致机器人忽略前进路线上的障碍物. 结合路径规划领域的相关评价方法[18],加入视野内的障碍物数量
2.1.4. 综合评分
对上述3项评价指标进行加权求和,即可根据当前传感器数据对规划角度进行实时量化评分. 综合评分
式中:
2.1.5. 平均跟随时间
对不同角度规划算法的行人跟随效果进行综合对比评价,统计相同算法在相同仿真场景多次实验的平均跟随时间.
式中:
2.1.6. 角度平滑性
从随动机构控制效果考虑,规划算法所生成的角度轨迹应保持连续平滑. 参考运动指令规划领域的相关评价指标[19],对规划算法的所有目标角度进行平滑性度量:
式中:
2.2. 传感器角度规划策略
基于仿真环境设计并对比多种角度规划策略
2.2.1. 固定传感器策略
固定传感器即传感器相对于底盘静止、不进行单独规划控制的策略. 以该策略为基准说明随动式感知机构的优势:
式中:
2.2.2. 目标伺服策略
目标伺服策略不考虑视野内的障碍物信息,让跟踪目标始终处于传感器视野中央,可以最大化跟踪效果,避免当目标快速移动时传感器丢失目标.
式中:
2.2.3. 结合底盘方向策略
针对目标伺服策略在转弯场景中容易忽视前方道路和障碍物的问题,提出结合底盘方向角度规划策略. 取目标角度
式中:
2.2.4. 权重视野域策略
结合底盘方向角度规划策略虽然相比目标伺服策略有一定改进,能够兼顾目标跟踪与障碍物检测的需求,但是机器人运动时的底盘方向一方面依赖于底盘结构与驱动方式,另一方面又依赖于路径规划与控制算法,因此得到规划效果的泛用性与可移植性较差.本研究提出基于视野域加权的自适应规划策略,使用传感器深度信息对当前视野内角度进行加权求和作为运动方向的估计,并将估计角度
式中:
3. 实验结果与分析
3.1. 机器人跟随功能实现
3.1.1. 基于RoboMaster机器人的硬件平台
以RoboMaster开源机器人平台为基础,实现搭载随动机构的跟随机器人平台. RoboMaster机器人平台采用具备4个麦克纳姆轮的全向底盘与双自由度机械云台设计,可以实现云台相对底盘的独立控制. 机器人使用固定在云台的Azure Kinect作为随动式RGB-D传感器,使用固定于底盘的Jetson TX2开发板作为嵌入式硬件计算平台. 跟随实验中使用的RoboMaster机器人平台如图3所示.
图 3
图 3 跟随实验中使用的RoboMaster机器人平台
Fig.3 RoboMaster robot platform used in following experiment
3.1.2. 基于Gazebo的仿真场景搭建
图 4
图 4 基于Gazebo平台的仿真机器人与地图
Fig.4 Simulation robot and map based on Gazebo platform
3.1.3. 基于ROS的软件架构
使用Ubuntu 18.04平台运行ROS Melodic 作为移动机器人感知与运动控制系统的软件框架.系统架构按照不同功能层级划分为应用层、框架层、系统层和硬件层,每个模块均通过ROS发布和订阅不同的消息话题,以实现不同进程间的通信与配合. 基于ROS的软件架构与功能模块如图5所示.
图 5
图 5 基于ROS的软件架构与功能模块
Fig.5 ROS-based software architecture and functional modules
本研究使用Darknet框架[13]部署YOLOv3算法,基于roscpp编写目标跟踪与角度规划模块,结合ROS提供开源运动规划模块move_base,实现机器人完整的跟随功能.
3.2. 行人位置多目标跟踪实验结果与分析
3.2.1. 行人目标检测
在ROS平台上部署YOLOv3-tiny目标检测网络,并分别在仿真环境与实际场景中进行测试实验. 在Gazebo仿真环境中,通过添加openni_kinect插件实现对Kinect深度相机的仿真,并添加动态行人actor对象作为检测目标. 实际场景中分别进行单人、多人场景下的数据采集与实验,测试数据通过Azure Kinect传感器在彩色相机720p、深度相机NFOV 2x2 binned工作模式下采集. 使用YOLOv3算法在仿真与实际场景下的行人检测结果如图6所示. 实验表明在仿真与实际场景下,YOLOv3算法均可以实现对视野内不同尺寸目标的准确检测.
图 6
图 6 YOLOv3算法在仿真与实际场景中的行人检测结果
Fig.6 Pedestrian detection results of YOLOv3 algorithm in simulation and real scenes
3.2.2. 坐标解算与单目标跟踪
在仿真环境中可以获得目标的真实位置,本研究基于Gazebo仿真平台,对单目标跟踪与坐标解算效果进行实验测试,得到仿真平台中单目标跟踪轨迹与真实轨迹对比如图7所示. 可以看出,本研究所使用的方法能够正确解算出目标三维位置,但检测结果存在一定的测量噪声,经Kalman滤波后的跟踪轨迹中噪声得到改善,且跟踪轨迹与真实轨迹的误差不超过20 cm,满足行人跟随任务的要求.
图 7
图 7 仿真平台单目标跟踪轨迹与真实轨迹对比
Fig.7 Comparison of single target tracking trajectory and real trajectory in simulation platform
3.2.3. 多目标匹配与跟踪
图 8
图 8 使用Azure Kinect数据的多目标匹配与跟踪结果
Fig.8 Multi-target matching and tracking results using Azure Kinect data
图 9
图 9 使用Azure Kinect数据的多目标跟踪轨迹
Fig.9 Multi-target tracking trajectory using Azure Kinect data
3.3. 感知机构角度规划实验与对比
对于传感器角度规划任务,本研究基于仿真平台对上述4种传感器角度规划策略进行的仿真测试. 在相同仿真场景进行多次仿真测试后,统计得到的不同传感器角度规划策略各项评价指标的平均评分如表1所示. 可以看出,本研究所提权重视野规划策略可以通过传感器数据对传感器角度进行自适应调整,兼顾了目标跟踪与障碍物检测需求,在多项指标中都取得最优评分. 由此也证明了本研究所提自适应角度规划策略的有效性,这与实验观察中得到的结果相吻合.
表 1 仿真平台上不同传感器角度规划策略的平均评分对比
Tab.1
规划策略 | | | | | | |
固定相机 | 0.667 | 0.798 | 1.004 | 1.516 | 85.6 | 0 |
目标伺服 | 0.997 | 0.834 | 1.282 | 1.895 | 120.1 | 82.14 |
底盘方向 | 0.946 | 0.861 | 1.291 | 1.871 | 117.2 | 19.47 |
权重视野 | 0.993 | 0.848 | 1.331 | 1.908 | 141.4 | 33.55 |
3.4. 行人跟随实验结果与分析
结合机器人的感知规划与硬件控制模块功能,本研究在仿真与实物机器人平台实现行人跟随功能,并进行实验测试,仿真与实物机器人的行人跟随实验场景如图10所示. 可以观察到,本研究所提基于自适应随动机构的跟随方法极大地改善了机器人目标跟随的成功率。当目标在视野范围移动时,随动机构能够及时根据目标与环境信息自适应调整云台角度,从而保证对目标的持续跟踪. 在多人场景跟随实验测试中,基于多目标跟踪算法,机器人在当视野存在多个行人目标时,能够实现对单一行人目标的持续跟随, 证明本研究所提方法具有较强的鲁棒性.
图 10
图 10 仿真与实物机器人的行人跟随实验场景
Fig.10 Pedestrian following experimental scenarios with simulation and real robot
如图11所示为机器人跟随实验中跟随目标与机器人的运动轨迹. 可以看出,本文所提方法能够实现机器人对运动目标稳定的轨迹跟随效果. 其中仿真场景的机器人轨迹跟随效果更好,原因是仿真中行人目标匀速运动,机器人容易跟随且传感器的数据质量更好. 在实物场景中由于目标真实位置较难获得,用机器人目标跟踪结果进行近似,得到目标轨迹的噪声较大,但依然可以看出机器人对目标轨迹稳定的跟随效果.
图 11
图 11 跟随实验中目标与机器人的运动轨迹
Fig.11 Trajectories of target and robot during following experiments
4. 结 论
(1)针对相关研究较少的随动式感知机构角度规划问题,从任务需求出发设计多项指标进行综合评价,提出基于底盘方向的规划策略与基于权重视野域的规划策略,改善跟随任务中的传感器角度规划效果.
(2)针对行人跟随场景,提出基于YOLOv3网络、三维坐标解算与位置度量匹配的多目标位置跟踪算法. 该算法实现了对视野内行人目标位置良好的实时检测与跟踪效果,满足机器人视觉目标感知的需求.
(3)将视觉感知与角度规划模块应用于ROS平台,结合开源机器人平台实现机器人的行人跟随功能. 实验结果表明,本研究设计的行人跟随框架能够实现机器人对行人运动轨迹的持续跟随效果.
(4)本研究设计的随动机构角度规划策略基于预先设定规则,需要手动调整参数,对不同场景的规划效果存在差异. 后续研究将考虑基于优化理论以及强化学习的角度规划算法,实现对不同场景更加鲁棒的角度规划效果. 后续计划将本研究所提随动感知机构在无人车辆平台进行部署测试,研究不同运动平台基于随动机构的目标跟随效果.
参考文献
智能跟随移动机器人的研究与应用前景综述
[J].DOI:10.3969/j.issn.1009-0134.2020.10.012 [本文引用: 1]
Overview of research and application prospect of intelligent following mobile robots
[J].DOI:10.3969/j.issn.1009-0134.2020.10.012 [本文引用: 1]
An improved indoor robot human-following navigation model using depth camera, active IR marker and proximity sensors fusion
[J].DOI:10.3390/robotics7010004 [本文引用: 1]
Two-stream RGB-D human detection algorithm based on RFB network
[J].DOI:10.1109/ACCESS.2020.3007611
Accurate 3D localization using RGB-TOF camera and IMU for industrial mobile robots
[J].DOI:10.1017/S0263574720001526 [本文引用: 1]
FairMOT: on the fairness of detection and re-identification in multiple object tracking
[J].DOI:10.1007/s11263-021-01513-4 [本文引用: 1]
/
〈 |
|
〉 |
