浙江大学学报(工学版), 2025, 59(8): 1671-1679 doi: 10.3785/j.issn.1008-973X.2025.08.014

计算机技术、控制工程、通信技术

动态窗口法引导的TD3无地图导航算法

柳佳乐,, 薛雅丽,, 崔闪, 洪君

1. 南京航空航天大学 自动化学院,江苏 南京 211106

2. 上海机电工程研究所,上海 201109

TD3 mapless navigation algorithm guided by dynamic window approach

LIU Jiale,, XUE Yali,, CUI Shan, HONG Jun

1. College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 211106, China

2. Shanghai Electro-Mechanical Engineering Institute, Shanghai 201109, China

通讯作者: 薛雅丽,女,副教授. orcid.org/0000-0002-6514-369X. E-mail: xueyali@nuaa.edu.cn

收稿日期: 2024-05-24  

基金资助: 国家自然科学基金资助项目(62073164);上海市航天科技创新基金资助项目(SAST2022-013).

Received: 2024-05-24  

Fund supported: 国家自然科学基金资助项目(62073164);上海市航天科技创新基金资助项目(SAST2022-013).

作者简介 About authors

柳佳乐(1999—),男,硕士生,从事智能体导航决策的研究.orcid.org/0009-0007-7253-5601.E-mail:liujiale@nuaa.edu.cn , E-mail:liujiale@nuaa.edu.cn

摘要

针对深度强化学习(DRL)算法训练数据需求量大、连续导航信息利用不充分的问题,提出DWA-LSTM TD3算法. 该算法根据目标点相对位置、机器人自身速度和当前激光雷达数据控制机器人运动,过程无需先验地图. 在训练过程中,利用动态窗口法(DWA)引导双延迟确定策略梯度(TD3),提高训练数据的质量. 在策略网络中引入长短期记忆神经网络(LSTM),提升智能体对连续导航信息的处理能力. 搭建仿真环境训练测试,与其他方法进行对比. 实验结果表明,DWA-LSTM TD3在相同的训练步数下能够获得更高的奖励值,提高了导航任务的成功率;导航姿态角的波动范围变化更小,轨迹更平滑,改善机器人的运动安全性能. 利用该算法,能够在不同场景下高效完成导航任务. 该算法具有很强的泛化能力.

关键词: 无地图导航 ; 动态窗口法 ; 深度强化学习 ; 双延迟确定策略梯度算法 ; 长短期记忆

Abstract

The DWA-LSTM TD3 algorithm was proposed in order to address the challenges of high data demand in deep reinforcement learning (DRL) and insufficient utilization of continuous navigation information. Robot motion was controlled based on the relative position of the target point, the robot’s own velocity, and current LiDAR data, without relying on any prior map. The dynamic window approach (DWA) was employed to guide the twin delayed deep deterministic policy gradient (TD3) algorithm during training, thereby enhancing the quality of collected training data. A long short-term memory (LSTM) neural network was integrated into the policy network in order to improve the agent’s ability to process continuous navigation information. A simulation environment was constructed for training and evaluation, and comparative experiments were conducted with other methods. The experimental results show that the DWA-LSTM TD3 algorithm achieves higher cumulative rewards and improves the success rate of navigation tasks under the same number of training steps. The fluctuation range of navigation orientation angles was reduced, smoother trajectories were produced, and the safety performance of robot motion was enhanced. The algorithm can be used to efficiently accomplish across various scenarios. The algorithm has strong generalization ability.

Keywords: mapless navigation ; dynamic window approach ; deep reinforcement learning ; twin delayed deep deterministic policy gradient algorithm ; long short-term memory

PDF (1548KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

柳佳乐, 薛雅丽, 崔闪, 洪君. 动态窗口法引导的TD3无地图导航算法. 浙江大学学报(工学版)[J], 2025, 59(8): 1671-1679 doi:10.3785/j.issn.1008-973X.2025.08.014

LIU Jiale, XUE Yali, CUI Shan, HONG Jun. TD3 mapless navigation algorithm guided by dynamic window approach. Journal of Zhejiang University(Engineering Science)[J], 2025, 59(8): 1671-1679 doi:10.3785/j.issn.1008-973X.2025.08.014

随着智能与自动驾驶技术的迅速发展,基于深度强化学习的路径规划方法受到广泛关注. 导航任务是机器人智能的核心,但多数路径规划算法依赖先验地图,在地下探索、灾后救援、洞穴搜救等特殊环境下难以实现,因而无地图导航成为研究热点. 当前方法主要分为经典方法与深度强化学习方法. 经典算法如A*、Dijkstra和动态窗口法(DWA)已在机器人操作系统(ROS)中广泛实现,但存在计算开销大或易陷入局部最优的问题[1-4]. 部分改进方法如基于间隙[5]或高斯过程前沿方法[6]虽然可以提升性能,但在感知稀疏或场景复杂时受限.

近年来,深度强化学习因硬件进步而得到快速发展[7-8]. DQN、DDPG、PPO、TD3等算法通过强化策略学习显著提升导航的性能[9-10],TD3引入双Q网络以减少高估偏差. 部分研究者结合深度强化学习与传统方法,如人工势场法[11-13],增强经验学习能力. 引入LSTM网络[14-17]进一步提升对连续状态信息的处理能力,加速训练并提升泛化效果. Xie等[18]在训练过程中使用简单控制器对深度强化学习模型进行引导,以达到提升样本质量的目的.

伴随深度强化学习的飞速发展,深度强化学习在无地图导航领域逐渐成为主流,然而深度强化学习方法需要进行大量的训练,该过程需要有足够多的优质数据才能训练出令人满意的模型[19]. 在无地图场景下导航无法获取最优的全局路径,仅依靠局部路径规划器无法实现高效导航[20]. 为了解决这些问题,结合神经网络的快速响应性和强鲁棒性[21],本文构建基于动态窗口法引导的TD3路径规划算法框架. 为了提升DWA局部路径规划算法在无地图环境下的表现,设计逃离机制,解决路径规划器易陷入局部最优的问题. 为了解决TD3算法训练速度慢、所需训练样本量大的问题,结合TD3算法与DWA,辅助TD3算法获得奖励更高的经验动作,以获得优质训练样本,加快算法的收敛进程. 引入LSTM网络,增强机器人对连续信息经验的学习能力,参考前序状态信息,进一步提升算法的训练效率,提高机器人的导航效果.

1. 数学建模与动态窗口法

1.1. 数学建模

为了在DWA算法中进行线速度与角速度的评价,须建立机器人运动学的数学模型. 研究对象为双轮差速底盘机器人[22](见图1).

图 1

图 1   双轮差速底盘机器人的运动学模型

Fig.1   Kinematic model of differential drive wheeled robot


图1中,$ l $为两轮之间的间距,$r$为转弯半径,${v_1}、{v_2}$分别为左、右两轮的线速度. 机器人在$\Delta t$时间内进行匀速运动的运动学模型如下:

$ \left.\begin{array}{c}{x}_{t+1}={x}_{t}+v \Delta t\mathrm{cos}\,\,{\theta }_{t},\\ {y}_{t+1}={y}_{t}+v \Delta t\mathrm{sin}\,\,{\theta }_{t},\\ {\theta }_{t+1}= {\theta }_{t}+\omega \Delta t .\end{array} \right\} $

式中:$x、y$为机器人的坐标位置;$\omega $为机器人的角速度;$v$为机器人中心线速度,大小为$({v_1}+{v_2})/2$$\theta $为两轮中心连线与$x$轴的夹角.

1.2. 动态窗口法

动态窗口法具有决策延迟低、安全性高、多约束耦合能力强等优点,是高效且可靠的导航方法,因此将其与深度强化学习进行结合,提升导航性能. 动态窗口法需要在速度空间内对$ v $$ \omega $采样. 在采样过程中,通常会获得多组采样速度动态窗口,使用评价函数对采样速度进行评估,确定该状态下的最佳速度[23]. 由于机器人的固有特性和环境约束,速度空间会被限制在一定范围内. 速度空间的选取需要考虑其极限速度:

$ {V_{\mathrm{m}}} = \{ \left. {(v,\omega )} \right|v \in [{v_{\min}},{v_{\max}}],\omega \in [{\omega _{\min}},{\omega _{\max}}]\} . $

式中:${v_{\min}}、{v_{\max}}$分别为机器人线速度的最小值和最大值,${\omega _{\min}}、{\omega _{\max}}$分别为机器人角速度的最小值和最大值.

在实际工程上,机器人加速、减速运动都会受限于机器人的动力性能,因此机器人速度空间被加速度所约束,数学表达式如下:

$\begin{split} {V_{\text{d}}} =& \left\{ \left( {v,\omega } \right)| {v \in \left[ {{v_{\text{c}}} - {a_{{v}}}\Delta t,{v_{\text{c}}}+{a_{{v}}}\Delta t} \right]},\right. \\ &\left. {\omega \in [{\omega _{\text{c}}} - {a_{\omega}}\Delta t,{\omega _{\text{c}}}+{a_{{\omega }}}\Delta t]} . \right\} \end{split}$

式中:${a_{{v}}}$为最大线加速度,${a_{\omega}}$为最大角加速度,${v_{\text{c}}}、{\omega _{\text{c}}}$分别为当前线速度和当前角速度.

机器人通过激光雷达可以获得与障碍物之间的距离,应留有一定的距离确保机器人能够在撞到障碍物前完成减速. 若距离不够,则机器人以最大加速度进行制动,无法避免碰撞. 对机器人在发生碰撞前的速度进行约束,该速度应与障碍物距离成正比,数学表达式如下:

$\begin{split} {V_{\mathrm{a}}} =& \left\{ \left( {v,\omega } \right)|v\in {{\text{[}}{{{v}}_{\min }},\sqrt {2 {\text{dist }}(v,\omega ) {a_{{v}}}} ]} ,\right.\\ &\left. \omega \in{{\text{[}}{\omega _{\min }},\sqrt {2 {\text{dist }}(v,\omega ) {a_{\textit{ω }}}} ]} . \right\} \end{split}$

式中:${\text{dist }}\left( {v,\omega } \right)$为当前速度下预测轨迹与障碍物之间的最小距离. 结合速度约束${V_{\mathrm{m}}}、{V_{\mathrm{d}}}、{V_{\mathrm{a}}}$,可得最终DWA算法中的采样速度空间${{V}}$

$ V = {V_{\text{m}}} \cap {V_{\text{d}}} \cap {V_{\text{a}}}. $

2. 算法设计

2.1. 逃离机制的动态窗口法

由于DWA作为局部路径规划算法,在无先验地图的情况下极易陷入局部最优. 针对该问题,在原始评级函数的基础上设计逃离机制. 评价函数的原理是在符合各种约束的速度空间中采样多组速度,模拟出一定时间内的轨迹[24]. 通过评价函数对这些轨迹进行评价,选出一条相对最优的轨迹和速度,评价函数的数学表达式如下:

$ G\left( {v,\omega } \right) = \sigma [\alpha \cdot {\text{heading }}(v,\omega ) +\beta \cdot {\text{dist }}(v,\omega )+\gamma \cdot {\text{vel }}(v,\omega )] .$

式中:${\text{heading}}\left( {v,\omega } \right)$为当前采样速度下轨迹终点方向与目标点连线的夹角误差,${\text{vel}}\left( {v,\omega } \right)$为线速度,$\sigma 、\alpha、\beta、\gamma $为常数.

针对无地图环境,采用原始DWA算法导航经常会陷入局部最优,此时机器人评价分数最高的动作可能是原地不动. 虽然原地转动可以确保机器人不会发生碰撞,但机器人不能到达目标位置. 为了解决该问题,针对评价函数作出改进,在陷入局部最优时,采用逃离机制优先逃离局部最优点. 此时,评价函数不考虑${\text{heading}}$项,以${\text{dist}}$项作为评估速度的主要依据,促使机器人优先逃离局部最优点. 当陷入局部最优时,改进后动态窗口法的评价函数变为

$ G\left( {v,\omega } \right) = \sigma '[\beta ' \cdot {\text{dist}}(v,\omega )+\gamma ' \cdot {\text{vel}}(v,\omega )]. $

式中:$\sigma '、\beta '、\gamma '$为常数.

由于机械结构的限制,机器人背面通常有遮挡,导致观测区域存在盲区,有时需要转动方向寻找更优解. 设计根据机器人左、右侧激光雷达探测数据来确定机器人转向角速度,引导机器人向障碍物不密集的地方转动. 左转与右转概率分别为

$ \left. \begin{gathered} {L_{{\text{prob}}}} = \min \left\{1,\max \left\{0,{{{\text{dis}}{{\text{t}}_{{\text{left}}}}}}/{C}\right\}\right\} , \\ {R_{{\text{prob}}}} = \min \left\{1,\max \left\{0,{{{\text{dis}}{{\text{t}}_{{\text{right}}}}}}/{C}\right\}\right\} . \\ \end{gathered} \right\} $

式中:${\text{dis}}{{\text{t}}_{{\text{left}}}}$为激光雷达检测到左侧障碍物的距离之和,${\text{dis}}{{\text{t}}_{{\text{right}}}}$为激光雷达检测到右侧障碍物的距离之和,${L_{{\text{prob}}}}$为左转概率,${R_{{\text{prob}}}}$为右转概率. 最终的逃离速度为

$ \left. \begin{gathered} v = 0 , \\ \omega = {\mathrm{random}}\;( - R,L). \\ \end{gathered} \right\} $

式中:${\mathrm{random}}\;({{x}},y)$为从$x$$y$范围内的随机数.

2.2. 基于DWA引导的TD3算法设计

为了增强算法整体的性能和稳定性,在根据DDPG算法进行优化的TD3算法的基础上进行改进,其改进思路借鉴DDQN算法的思想. 为了解决Q值高估的问题,在TD3网络中采用Actor-Critic框架:4个Critic网络和2个Actor网络. 在该算法中,Critic网络的更新频率高于Actor,这使得训练过程更加稳定. TD3网络的结构如图2所示.

图 2

图 2   TD3网络的结构

Fig.2   Structure of TD3 network


在TD3算法的训练过程中,网络从经验池中获取当前时刻的状态值、动作值、奖励值和$t+1$时刻的状态值,表示为$ \left( {{\boldsymbol{s}},{\boldsymbol{a}},r,{{\boldsymbol{s}}_{t+1}}} \right) $,通过目标Actor网络推理得到$t+1$时刻的动作[25]. 由2个Critic网络计算得到Q,计算得到目标值$y$

$ y = r+\gamma \left( {1 - d} \right){\text{min}}\,\,\left\{ {{Q_1},{Q_2}} \right\}. $

式中:$\gamma $为折扣因子;d表示终止状态,d=1表示回合终止,d=0表示回合未结束;Q1Q2分别为2个Critic网络输出的Q.

通过选取较小的Q并进行回归,可以有效地解决Q值高估的问题. 在训练初期,机器人更需要学习如何躲避障碍物和向目标点方向移动. 在初期,网络获取得到的优质训练数据较少,故采用DWA对机器人进行引导,可以获取更多的优质训练数据,加快网络对导航任务的学习速度.

因机器人在算法训练初期对环境的学习不充分,所执行的动作未必合理,提出基于$\varepsilon $-贪心策略的动作选择器,引导智能体执行更加有效的动作. TD3算法中包含Critic网络,该网络在训练过程中主要用于评判动作价值. 训练时,通过决策网络计算得到的动作为${{\boldsymbol{a}}_{{\text{net}}}}$,通过DWA控制器得到的动作为${{\boldsymbol{a}}_{{\text{dwa}}}}$. 智能体根据Q按照一定的策略进行动作选择,执行Q较大的动作${{\boldsymbol{a}}_{{\text{max}}\left( {{Q}} \right)}}$. 基于$\varepsilon $-贪心策略的动作选择器会在训练初期大量采用${{\boldsymbol{a}}_{{\mathrm{dwa}}}}$作为智能体执行动作,帮助智能体快速学会躲避障碍物,并向目标点方向移动. 在训练末期,更多采用Action网络得到${{\boldsymbol{a}}_{{\text{net}}}}$,这有利于机器人充分探索最优动作,提升智能体导航性能的上限. 基于$\varepsilon $-贪心策略的动作选择器的数学表达式如下:

$ {\boldsymbol{a}} = \left\{ {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{{\boldsymbol{a}}_{{\text{max}}\left( {{Q}} \right)}},}&{{\text{概率为 }}1 - \varepsilon }; \\ {{{\boldsymbol{a}}_{{\text{net,}}}}}&{{\text{概率为 }}\varepsilon }. \end{array}} \end{array}} \right. $

式中:$\varepsilon $为选择${{\boldsymbol{a}}_{{\text{net}}}}$的概率.

$\varepsilon $的初始值较小,随着训练的进行,逐渐递增到1,保证智能体在初始阶段优先学习动作选择器输出的动作,提升训练效率. 在训练后期,允许智能体进行更多的探索,进一步提升模型的性能. DWA引导算法的框架如图3所示.

图 3

图 3   DWA引导的TD3算法的整体架构

Fig.3   Overall architecture of DWA-guided TD3 algorithm


2.3. 状态空间、动作空间和奖励函数的设计

机器人状态由前方$180^\circ $雷达数据与目标点相对机器人位置的极坐标构成,其中采样激光雷达相邻激光束的间隔角度为$10^\circ $,最终的状态空间包含19位激光雷达数据和2位极坐标.

Actor网络的最终输出可以表示为对应实际机器人的线速度和角速度$\left( {v,\omega } \right)$. 由于实际机器人具有运动学模型的约束,存在最大线速度${v_{{\text{max}}}}$和最大角速度${\omega _{{\text{max}}}}$. 在Actor网络中,使用tanh激活函数对Actor网络输出动作进行限制. 机器人速度可由Actor网络输出动作$\left( {{v_{{\text{net}}}},{\omega _{{\text{net}}}}} \right)$表示:

$ \left( {v,\omega } \right) = \left( {{v_{{\text{max}}}}\frac{{{v_{{\text{net}}}}+1}}{2},{\omega _{{\text{max}}}}{\omega _{{\text{net}}}}} \right). $

奖励函数是深度强化学习的重要机制,智能体根据奖励函数来明确任务需求. 具体内容如下:

$ {r_{{\mathrm{cl}}}} = \left\{ {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{r_{{\text{goal,}}}}} \\ {{r_{{\text{coll,}}}}} \\ {v - \left| \omega \right| - {r_{{\text{obs,}}}}} \end{array}}&{\begin{array}{*{20}{c}} {{\text{到达目标;}}} \\ {{\text{发生碰撞;}}} \\ {{\text{其他.}}} \end{array}} \end{array}} \right. $

式中:${r_{{\text{goal}}}}$为到达目标奖励,${r_{{\text{coll}}}}$为发生碰撞奖励,${r_{{\text{obs}}}}$为障碍物距离奖励.

$ {r}_{{\mathrm{obs}}}=\left\{ \begin{array}{cc}1-{d}_{\text{min},}& {d}_{\text{min}} < 1;\\ 0,& {d}_{\text{min}}\geqslant 1.\end{array} \right.$

式中:${d_{{\text{min}}}}$为当前激光雷达数据检测到的最近障碍物距离.

奖励函数引导机器人在躲避障碍物的同时朝着目标点移动,促使机器人在行驶过程中保持较大的$v$和较小的$\omega $.

2.4. 长短期记忆

长短期记忆神经网络是RNN的衍生版本,具有特殊的网络结构,这种结构有利于避免RNN中长期依赖的问题. 在单个LSTM单元中,包括3个门结构,分别为遗忘门、记忆门与输出门. 其中遗忘门能够选择新输入信息${{\boldsymbol{x}}_t}$和上一时刻隐藏层状态${{\boldsymbol{h}}_{t - 1}}$中的不重要信息进行遗忘,记忆门的作用是选择${{\boldsymbol{x}}_t}$${{\boldsymbol{h}}_{t - 1}}$中的重要信息进行保留. 这2个门主要用来更新LSTM单元的内部状态. 输出门是根据当前时刻输入和网络内部状态${\boldsymbol{c}}$计算得到当前时刻的输出. 具体的网络结构[26]图4所示.

图 4

图 4   LSTM网络模型

Fig.4   LSTM network model


在无地图导航算法中引入LSTM,以处理机器人的状态信息. 每一时刻LSTM网络输入机器人的当前状态和过往状态信息$\left( {{{{\boldsymbol{h}}}_{t - 1}},{{{\boldsymbol{c}}}_{t - 1}}} \right)$. 经过LSTM遗忘门、记忆门与输出门处理后,得到$\left( {{{\boldsymbol{h}}_t},{{\boldsymbol{c}}_t}} \right)$. 最后将$\left( {{{\boldsymbol{h}}_t},{{\boldsymbol{c}}_t}} \right)$送到Actor网络和Critic网络中的全连接层. 具体的状态序列数据流如图5所示.

图 5

图 5   LSTM数据的处理流程

Fig.5   Processing model of LSTM data


在Actor网络和Critic网络都添加LSTM,对输入状态进行处理. 借助LSTM独特的神经网络结构,可以选择性地遗忘和保留路径规划过程中的历史信息,改善TD3算法对历史信息的理解能力. 具体的网络结构如图6所示.

图 6

图 6   Actor-Critic网络结构

Fig.6   Actor-Critic network structure


3. 实验验证

3.1. 实验环境与超参数的设置

为了验证提出的DWA-LSTM TD3算法在机器人无地图环境路径规划的有效性,在Gazebo环境下开展实验. 搭建环境如图7所示,其中包括训练场景(见图7(a))、2个测试场景(见图7(b)、(c)). 图中,方块物体表示障碍物,白色表示墙体,右上角圆点表示机器人目标点,黑色表示机器人本体. 实验任务是驱动机器人从起点出发,移动到给定目标终点,并且避开所有障碍物和墙体. 在训练场景中,每次起点和目标点都会随机分配. 在2个测试场景中,起点坐标均为$\left( { - 3, - 4} \right)$,目标点坐标均为$\left( {4,4} \right)$,以便对比观察实验结果.

图 7

图 7   导航实验的训练环境

Fig.7   Training environment of navigation experiment


深度强化学习常需要大量训练数据的支持,基于实际硬件平台直接进行训练,可能会对硬件设备造成无法挽回的损坏. 在Gazebo构建Pioneer P3-DX机器人仿真环境,搭载激光雷达传感器,基于ROS Melodic实现算法设计和仿真验证. 网络训练平台为Ubuntu18.04,程序编写主要通过PyTorch完成. 系统内存为16 GB,处理器为Intel Core i5-12400F,显卡为RTX3060Ti、8 GB显存. 参考现有导航算法[10,12-13]的参数设定,针对DWA-LSTM TD3算法进行参数微调. 根据任务场景的复杂度,将每回合最大时间步调整为500步. 为了保证训练数据充足以降低过拟合风险,将经验池大小设置为${10^6}$. 将策略噪声设置为0.2,提高策略网络的鲁棒性,最终的网络超参数设定如表1所示.

表 1   DWA-LSTM TD3算法的超参数设定

Tab.1  Hyperparameter setting of DWA-LSTM TD3 algorithm

参数数值
折扣因子 $\gamma $0.99
软目标更新率 τ0.005
每回合最大时间步 MaxStep500
学习率 LearningRate0.001
策略噪声 PolicyNoise0.2
经验池大小 ReplayBuffer${10^6}$

新窗口打开| 下载CSV


3.2. 实验结果分析

将提出算法与经典的DDPG、PPO、TD3算法进行比较与消融实验. 在训练场景中,分别对DWA-LSTM TD3、DDPG、PPO、TD3、DWA-TD3、LSTM-TD3进行训练,训练规则如下:在不与障碍物发生碰撞的前提下,500步之内到达终点视为任务完成. 各算法的训练结果如图8所示. 图中,Ni为迭代次数. 在训练初期5 000回合之前,提出方法的学习效率更高,这是DWA算法初期阶段的引导效果. 通过初期引导可以更早地获得优质训练数据,机器人的学习速率更高. 通过LSTM网络提高智能体对导航序列信息的理解能力,所以在训练后期,提出方法具有更高的奖励值.

图 8

图 8   训练平均奖励曲线的对比

Fig.8   Comparison of training average reward curve


利用DWA引导的TD3算法,在训练初期可以获得较高的奖励,给智能体提供更加优质的经验数据,提高算法的收敛速度. 采用融合LSTM后的TD3算法,能够进一步提升奖励值,提高对经验数据的利用效率. 结合两者的优势,能够获得更加优异的效果,提升了算法的收敛速度和最终性能. 使用训练场景中获得的模型,在测试环境中进行性能实验,验证算法的性能表现与泛化能力. 在2个测试环境中各执行100回合,统计每个算法的成功率、每回合步数及每一步的平均奖励. 机器人在100步以内从起点无碰撞到达目标点即为任务成功,统计数据的结果如表2所示.

表 2   训练所得模型的平均奖励值

Tab.2  Average reward value of trained model

方法成功率步数奖励
PPO0.7644.2931.92
DDPG0.8743.8867.33
TD30.9052.2755.71
DWA-TD30.8735.9363.96
LSTM-TD30.9144.7560.07
DWA-LSTM TD30.9136.8970.19

新窗口打开| 下载CSV


实验数据表明,与PPO算法相比,DDPG算法具有更高的成功率和更少的步数,效果更好,说明DDPG对连续的导航任务处理能力更强. 虽然TD3算法的成功率更高,但每回合步数较多,导致最终的平均奖励没有DDPG平均奖励高,说明TD3算法中引入的双Q网络的导航效率没有明显的提升,但算法的复杂度增大,导致性能衰退. 利用LSTM-TD3获得较高的成功率,但所耗费的步数多,导致获得的奖励不高,可见LSTM虽然带来了更大的网络复杂度,但对算法性能有较大的改善. DWA-TD3经过DWA的前期引导,获取优质的训练数据,所以完成任务的平均步数最少,但成功率稍低. 综合来看,DWA-LSTM TD3在成功率和步数上都比其他算法更加均衡、可靠,在本次实验中获得的平均奖励最高,可见DWA与LSTM的结合极大地提升了TD3算法的性能. 为了使实验结果更加清晰直观,在Gazebo仿真环境中搭建可视化模型,将机器人路径实时投影到地图中.

3.3. 测试场景1的结果分析

在测试场景1中,利用4种算法,均实现了从起点到终点的路径规划. 在无先验地图的环境下,利用DDPG算法,绕到右侧,虽然成功到达,但路线过于复杂. PPO算法和TD3算法的路径不够平滑,转向角波动过大. DWA-TD3与LSTM-TD3的轨迹较TD3更合理,说明DWA和LSTM均对TD3算法具有正向影响. 提出算法相较于其他对比方法有更加平滑、合理的路径,在路径长度方面有一定的优势. 测试场景1的实验可视化结果如图9所示.

图 9

图 9   场景1的实验轨迹可视化结果对比

Fig.9   Comparison of trajectory visualization in scenario 1


上述轨迹中的具体数据如表3所示. 可以看出,DDPG与PPO方法在该场景下的耗费步数较多,DWA-TD3算法较原始TD3算法获得了平均速度的提升,虽然所得的路径不够高效,但由于DWA引导的作用,平均速度大,步数耗费最少. LSTM-TD3算法的步数耗费较多,但经过LSTM对导航信息处理能力的增强,可以看出,利用LSTM-TD3算法获得的轨迹更平滑. DWA-LSTM TD3算法在步数与平均速度上均具有不错的效果,可见两者同时与TD3结合能够为TD3算法带来更大的提升,以更加高效的方式完成导航任务.

表 3   场景1实验所用的时间步

Tab.3  Time step utilized in scenario 1

方法步数平均速度
DDPG1340.389
PPO1300.479
TD3710.667
DWA-TD3640.708
LSTM-TD3760.596
DWA-LSTM TD3680.673

新窗口打开| 下载CSV


3.4. 测试场景2的结果分析

测试场景1全部由离散障碍物组成. 在测试场景2中增添大型的连续障碍物,利用同样的方法进行分析实验. 由可视化结果可以看出,提出方法具有更加平滑、有效的路径. 从2种不同环境中的测试结果可知,算法具有可泛化性,在不同环境中均具有优秀的表现.

具体数据如表4所示. DDPG在平均速度方面表现良好,但从图10可以看出,轨迹出现绕路的情况,可见算法的稳定性弱. 由于PPO算法对连续任务的处理能力较弱,得到的轨迹较复杂,导致最终耗费195步才到达终点. TD3算法的平均速度比DWA-LSTM TD3略大,但总耗费步数过多. 利用DWA-TD3算法与LSTM-TD3算法获得了不错的导航路径,说明DWA与LSTM均提升了TD3算法的性能. LSTM-TD3算法的步数耗费过高,DWA-TD3算法的角速度不够稳定,因此DWA-LSTM TD3算法具备更高的效率和稳定性,可以获得最全面的导航效果.

表 4   场景2的实验所用时间步

Tab.4  Time step utilized in scenario 2

方法步数平均速度
DDPG970.731
PPO1950.345
TD3960.617
DWA-TD3630.614
LSTM-TD3790.491
DWA-LSTM TD3650.596

新窗口打开| 下载CSV


图 10

图 10   场景2的实验轨迹可视化结果对比

Fig.10   Comparison of trajectory visualization in scenario 2


通过对角速度数据进行分析,如图1112所示. 可以看出,利用各方法得到的角速度分散程度差异很大. 场景1的实验数据如图11所示,利用DWA-LSTM TD3算法得到的角速度基本为$( - 0.5\sim 0.5)\;{{{\mathrm{rad}}} /{\mathrm{s}}}$.

图 11

图 11   场景1的实验角速度数据箱型图对比

Fig.11   Comparison of box plot of angular velocity data in scenario 1


图 12

图 12   场景2的实验角速度数据箱型图对比

Fig.12   Comparison of box plot of angular velocity data in scenario 2


图12可以看出,在场景2中,利用DWA-LSTM TD3算法得到的角速度为$( - 0.3\sim 0.2)\;{{{\mathrm{rad}}} / {\mathrm{s}}}$. 相比之下,利用其他算法得到的角速度显著超出$ - 0.5\sim 0.5$ rad/s. 与其他方法相比,DWA-TD3和LSTM-TD3的运动稳定性均有提升,DWA算法从提升样本质量的角度使TD3算法获得训练效果的提升,LSTM提升了TD3对导航连续信息的处理能力,将两者结合得到了更加优异的效果. 结果表明,DWA-LSTM TD3算法具有更好的稳定性,更适合在高速移动或大负载的情况下,通过规划合理、稳定的路径,提高机器人运动的安全性.

通过上述实验发现,LSTM、DWA引导模块在与TD3算法融合后皆有增益,两者融合可以获得更稳定、均衡的导航表现. LSTM通过独特的网络结构,提高算法对导航经验数据的利用效率,解决智能算法对训练数据需求大的问题. 导航是连续任务,LSTM的引入提升了网络对导航连续信息的理解能力,帮助智能体充分参考前序信息做出更加合理的导航决策. DWA引导模块从另一个方面帮助算法的训练,当训练模型初期无法获得优质数据时,引导TD3算法模型获得优质经验,从根源上提升了训练效率. 最终两者与TD3算法结合,训练效率与导航效果得到均衡的提升.

4. 结 语

本文提出DWA-LSTM TD3算法,通过构建动作选择器并采用DWA对训练过程进行引导,帮助算法在训练不完全阶段获取更多的优质训练数据,确保一定的探索比例,在提升算法训练效率的同时,保证算法的导航效果. 为了进一步提升对导航连续信息的处理能力,在算法中引入LSTM,构建含有LSTM的Actor和Critic网络,使算法能够充分参考前序导航信息,做出最优的导航决策. 本文构建基于Gazebo的可视化环境,搭建多个场景供训练与实验. 实验结果表明,该算法的导航任务成功率相较于其他主流算法有所提升,得益于DWA和LSTM融合对算法连续信息处理能力的提高. 每次任务所需的平均步数更少,且任务过程中角速度的波动范围明显缩小,说明运动稳定性更好,因此本研究算法在导航任务的安全性与稳定性上皆获得更好的效果,但即使是采用提出的改进TD3算法模型,测试成功率也仅有91%. 在缺失全局地图的情况下,本研究与实现高效导航任务的目标尚有差距,在算法优化、实时性提升、路径规划精度等方面存在改进的空间.

参考文献

ZHANG H, LIN W, CHEN A

Path planning for the mobile robot: a review

[J]. Symmetry, 2018, 10 (10): 450

DOI:10.3390/sym10100450      [本文引用: 1]

SINGH R, REN J, LIN X

A Review of deep reinforcement learning algorithms for mobile robot path planning

[J]. Vehicles, 2023, 5 (4): 1423- 1451

DOI:10.3390/vehicles5040078     

ZHU K, ZHANG T

Deep reinforcement learning based mobile robot navigation: a review

[J]. Tsinghua Science and Technology, 2021, 26 (5): 674- 691

DOI:10.26599/TST.2021.9010012     

刘宇庭, 郭世杰, 唐术锋, 等

改进A*与ROA-DWA融合的机器人路径规划

[J]. 浙江大学学报: 工学版, 2024, 58 (2): 360- 369

[本文引用: 1]

LIU Yuting, GUO Shijie, TANG Shufeng, et al

Improved A* and ROA-DWA fusion for robot path planning

[J]. Journal of Zhejiang University: Engineering Science, 2024, 58 (2): 360- 369

[本文引用: 1]

YAN K, MA B

Mapless navigation based on 2D LIDAR in complex unknown environments

[J]. Sensors, 2020, 20 (20): 5802

DOI:10.3390/s20205802      [本文引用: 1]

ALI M, LIU L. GP-Frontier for local mapless navigation [C]//IEEE International Conference on Robotics and Automation. London: IEEE, 2023: 10047-10053.

[本文引用: 1]

康振兴

基于路径规划和深度强化学习的机器人避障导航研究

[J]. 计算机应用与软件, 2024, 41 (1): 297- 303

DOI:10.3969/j.issn.1000-386x.2024.01.043      [本文引用: 1]

KANG Zhenxing

Research on robot obstacle avoidance navigation based on path planning and deep reinforcement learning

[J]. Computer Applications and Software, 2024, 41 (1): 297- 303

DOI:10.3969/j.issn.1000-386x.2024.01.043      [本文引用: 1]

朱威, 洪力栋, 施海东, 等. 结合优势结构和最小目标Q值的深度强化学习导航算法[J/OL]. 控制理论与应用, 2024, 41(4): 716-728 [2024-05-10]. http://kns.cnki.net/kcms/detail/44.1240.TP.20230223.1323.020.html.

[本文引用: 1]

ZHU Wei, HONG Lidong, SHI Haidong, et al. Deep reinforcement learning navigation algorithm combining advantage structure and minimum target Q value [J/OL]. Control Theory and Applications, 2024, 41(4): 716-728 [2024-05-10]. http://kns.cnki.net/kcms/detail/44.1240.TP.20230223.1323.020.html.

[本文引用: 1]

李昭莹, 欧一鸣, 石若凌

基于深度Q网络的改进RRT路径规划算法

[J]. 空天防御, 2021, 4 (3): 17- 23

DOI:10.3969/j.issn.2096-4641.2021.03.003      [本文引用: 1]

LI Zhaoying, OU Yiming, SHI Ruoling

Improved RRT path planning algorithm based on deep Q-network

[J]. Air and Space Defense, 2021, 4 (3): 17- 23

DOI:10.3969/j.issn.2096-4641.2021.03.003      [本文引用: 1]

WANG C, WANG J, SHEN Y, et al

Autonomous navigation of UAVs in large-scale complex environments: a deep reinforcement learning approach

[J]. IEEE Transactions on Vehicular Technology, 2019, 68 (3): 2124- 2136

DOI:10.1109/TVT.2018.2890773      [本文引用: 2]

CIMURS R, SUH I H, LEE J H

Goal-driven autonomous exploration through deep reinforcement learning

[J]. IEEE Robotics and Automation Letters, 2021, 7 (2): 730- 737

[本文引用: 1]

KONG F, WANG Q, GAO S, et al

B-APFDQN: a UAV path planning algorithm based on deep Q-network and artificial potential field

[J]. IEEE Access, 2023, 11: 44051- 44064

DOI:10.1109/ACCESS.2023.3273164      [本文引用: 1]

李永迪, 李彩虹, 张耀玉, 等

基于APF-LSTM-DDPG算法的移动机器人局部路径规划

[J]. 山东理工大学学报: 自然科学版, 2024, 38 (1): 33- 41

[本文引用: 2]

LI Yongdi, LI Caihong, ZHANG Yaoyu, et al

Local path planning for mobile robots based on APF-LSTM-DDPG algorithm

[J]. Journal of Shandong University of Technology: Natural Science Edition, 2024, 38 (1): 33- 41

[本文引用: 2]

张凤, 顾琦然, 袁帅

好奇心蒸馏双Q网络移动机器人路径规划方法

[J]. 计算机工程与应用, 2023, 59 (19): 316- 322

DOI:10.3778/j.issn.1002-8331.2208-0422      [本文引用: 1]

ZHANG Feng, GU Qiran, YUAN Shuai

Path planning method for mobile robots using curiosity distilled double Q-network

[J]. Computer Engineering and Applications, 2023, 59 (19): 316- 322

DOI:10.3778/j.issn.1002-8331.2208-0422      [本文引用: 1]

ZHANG Q, ZHANG L, MA Q, et al. The LSTM-PER-TD3 algorithm for deep reinforcement learning in continuous control tasks [C]//China Automation Congress. Chongqing: IEEE, 2023: 671-676.

TAN Y, LIN Y, LIU T, et al. PL-TD3: a dynamic path planning algorithm of mobile robot [C]//IEEE International Conference on Systems, Man, and Cybernetics. Prague: IEEE, 2022: 3040-3045.

HUANG B, XIE J, YAN J

Inspection robot navigation based on improved TD3 algorithm

[J]. Sensors, 2024, 24 (8): 2525

DOI:10.3390/s24082525      [本文引用: 1]

XIE L, WANG S, ROSA S, et al. Learning with training wheels: speeding up training with a simple controller for deep reinforcement learning [C]//IEEE International Conference on Robotics and Automation. Brisbane: IEEE, 2018: 6276-6283.

[本文引用: 1]

YU W, PENG J, QIU Q, et al. PathRL: an end-to-end path generation method for collision avoidance via deep reinforcement learning [C]// IEEE International Conference on Robotics and Automation. Yokohama: IEEE, 2024: 9278-9284.

[本文引用: 1]

户高铭, 蔡克卫, 王芳, 等

基于深度强化学习的无地图移动机器人导航

[J]. 控制与决策, 2024, 39 (3): 985- 993

[本文引用: 1]

HU Gaoming, CAI Kewei, WANG Fang, et al

Mapless navigation for mobile robots based on deep reinforcement learning

[J]. Control and Decision, 2024, 39 (3): 985- 993

[本文引用: 1]

金毅康. 移动机器人多机探索与路径规划算法研究[D]. 西安: 西安电子科技大学, 2020.

[本文引用: 1]

JIN Yikang. Research on multi-robot exploration and path planning algorithms for mobile robots [D]. Xi’an: Xidian University, 2020.

[本文引用: 1]

罗洁, 王中训, 潘康路, 等

基于改进人工势场法的无人车路径规划算法

[J]. 电子设计工程, 2022, 30 (17): 90- 94

[本文引用: 1]

LUO Jie, WANG Zhongxun, PAN Kanglu, et al

Path planning algorithm for unmanned vehicles based on improved artificial potential field method

[J]. Electronic Design Engineering, 2022, 30 (17): 90- 94

[本文引用: 1]

DOBREVSKI M, SKOČAJ D. Adaptive dynamic window approach for local navigation [C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Las Vegas: IEEE, 2020: 6930-6936.

[本文引用: 1]

DOBREVSKI M, SKOČAJ D. Dynamic adaptive dynamic window approach [J]. IEEE Transactions on Robotics, 2024, 40: 3068-3081.

[本文引用: 1]

ZHANG S, LI Y, DONG Q

Autonomous navigation of UAV in multi-obstacle environments based on a deep reinforcement learning approach

[J]. Applied Soft Computing, 2022, 115

[本文引用: 1]

张仪, 冯伟, 王卫军, 等

融合LSTM和PPO算法的移动机器人视觉导航

[J]. 电子测量与仪器学报, 2022, 36 (8): 132- 140

[本文引用: 1]

ZHANG Yi, FENG Wei, WANG Weijun, et al

Vision-based navigation of mobile robots integrating LSTM and PPO algorithms

[J]. Journal of Electronic Measurement and Instrumentation, 2022, 36 (8): 132- 140

[本文引用: 1]

/