浙江大学学报(工学版), 2021, 55(1): 96-108 doi: 10.3785/j.issn.1008-973X.2021.01.012

计算机技术、自动控制技术

基于视觉-磁引导的无人机动态跟踪与精准着陆

赵燕伟,, 张健, 周仙明, 吴耿育

浙江工业大学 机械工程学院,浙江 杭州 310058

Dynamic tracking and precise landing of UAV based on visual magnetic guidance

ZHAO Yan-wei,, ZHANG Jian, ZHOU Xian-ming, WU Geng-yu

College of Mechanical Engineering, Zhejiang University of Technology, Hangzhou 310058, China

收稿日期: 2020-09-9  

Received: 2020-09-9  

作者简介 About authors

赵燕伟(1959—),女,教授,从事人工智能、可拓设计研究.orcid.org/0000-0002-0810-4563.E-mail:ywz@zjut.edu.cn , E-mail:ywz@zjut.edu.cn

摘要

针对无人机通过视觉对地面动态目标跟踪过程中视角固定易丢失目标,以及在着陆过程中由于成像畸变严重、画面不稳定导致定位精度差的问题,提出随动视觉跟踪的跟踪控制策略和基于视觉联合磁引导的获取无人机高精度相对位姿的方法. 在跟踪过程中,设计新型信标图案供无人机进行视觉识别获取目标的方位,识别速度可以达到5 ms/帧,通过随动视觉跟踪完成实时跟踪. 在着陆过程中,在动态目标上设置磁源,利用无人机检测磁场特性并通过BP神经网络解算相对位置;在信标图案内设置平行线特征,用于近镜头时辅助视觉解算相对角度. 在获取无人机相对位姿后,进行相应的运动控制即可完成着陆. 实验结果表明,跟踪过程稳定可靠,抗干扰能力强;着陆精度高,着陆误差小于2 cm.

关键词: 视觉跟踪 ; 视觉信标 ; 磁引导 ; 神经网络 ; 位姿解算

Abstract

The tracking control strategy of follow-up visual tracking and the method of obtaining high precision relative pose of UAV based on vision and magnetic guidance were proposed in order to solve the problem that UAV can easily lose the target when tracking the ground dynamic target through vision and the positioning accuracy is poor due to serious imaging distortion and unstable picture during landing. A new beacon pattern was designed for UAV visual recognition in order to obtain the target orientation in the tracking process. The recognition speed can reach 5 ms/frame, and real-time tracking is completed by follow-up visual tracking. The magnetic source was set on the dynamic target in the process of landing. The magnetic field characteristics were detected by UAV and the relative position was calculated by BP neural network. A parallel line feature was set in the beacon pattern to assist the visual calculation of the relative angle when the camera was close to the target. The landing can be completed by corresponding motion control after obtaining the relative pose of UAV. The experimental results show that the method can achieve a stable and reliable track and high anti-jamming ability, and can reach high precision with less than 2 cm during landing.

Keywords: visual tracking ; visual beacon ; magnetic guidance ; neural network ; pose calculation

PDF (2881KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

赵燕伟, 张健, 周仙明, 吴耿育. 基于视觉-磁引导的无人机动态跟踪与精准着陆. 浙江大学学报(工学版)[J], 2021, 55(1): 96-108 doi:10.3785/j.issn.1008-973X.2021.01.012

ZHAO Yan-wei, ZHANG Jian, ZHOU Xian-ming, WU Geng-yu. Dynamic tracking and precise landing of UAV based on visual magnetic guidance. Journal of Zhejiang University(Engineering Science)[J], 2021, 55(1): 96-108 doi:10.3785/j.issn.1008-973X.2021.01.012

近年来,无人机技术发展迅速,逐渐被应用于航拍、空中侦测、地理测绘、电力线路巡检、人员搜救、快递运送、海上救援、农用植保以及环境监测等各个领域[1-3]. 随着无人机技术的迅速发展,无人机对动态目标进行自主跟踪及着陆,成为许多研究者研究的关键问题[4-5].

目前,国内外已有诸多学者和商业机构开始研究无人机对地面动态目标的跟踪与着陆问题. Falanga等[6]设计合作标志,利用单目摄像头检测圆和十字交叉,解算无人机和小车的相对方位. 亓岳鑫[7]设计Apriltags二维码的视觉标志,实现了无人机对地面移动目标的跟踪. Chen等[8]研究无人机自主跟踪及着陆问题,采用视觉和激光定位算法,实现无人机在移动平台上的跟踪及着陆方法. 北京零零无限推出的Hover Camera小黑侠无人机[9],可以从手掌起飞并使用摄像头对所要跟踪的人脸部特征进行检测,实现了对人的跟踪和拍摄.

在上述的跟踪及着陆研究中,仅依靠视觉来完成跟踪及降落,目前还存在一些问题. 1)大多数方法将相机固定于无人机下方,视野易丢失,导致“跟丢”现象;2)王日俊等[5, 7-8]提出的视觉算法运算量大,过度占用机载嵌入式系统资源;3)在着陆时,容易出现视野盲区,图像畸变严重,影响降落精度,而且着陆时会产生地面效应[10],加剧相机画面抖动. 针对上述问题,本文研究基于视觉和磁引导的组合导航技术,提出“随动视觉跟踪”,即摄像头随着跟踪目标的移动而智能调整自身朝向的控制策略. 提出在通过视觉跟踪完成常规跟踪后进行降落时利用电磁引导配合视觉导航的精确降落方法,搭建实验平台进行跟踪及着陆实验,验证了提出方法的正确性.

1. 无人机相对移动目标的位姿建模

将无人车作为移动目标,该模型可以描述如下:无人机实时识别无人车的方位并进行跟踪,在完成跟踪任务后可以精准着陆在无人车上. 无人机和无人车的相对位姿如图1所示.

图 1

图 1   跟踪过程的位姿描述

Fig.1   Pose description of tracking process


建立地球坐标系(X0Y0Z0)、无人机坐标系(X1Y1Z1)、挂载于无人机上的相机坐标系(X2Y2Z2)、无人车坐标系(X3Y3Z3). 无人机沿自身坐标系 ${Z_1}$轴旋转的角度记为 ${\varphi _1}$,无人车沿自身坐标系 ${Z_3}$轴旋转的角度为 ${\varphi _3}$。 相机安装在两自由度云台上,相机沿自身坐标系 ${X_3}$轴转过的角度为 $\alpha $,沿自身坐标系 ${Y_2}$轴转过的角度为 $\beta $,规定相机垂直朝下时,α=0,β=0. ${Z_1}$轴上转过的角度和 ${\varphi _1}$相同,因为无人机和相机在垂直方向上可以理解为固连.

选取地球坐标系作为惯性系,无人机位姿可以描述为RUAV=[x1y1z1,0,0, $\varphi_1 $]T (由于相机倾角是由云台控制,不受无人机影响,为了叙述方便,认定倾角为0),无人车位姿为RAGV=[x3y3z3,0,0, $\varphi_3 $]T,相机位姿为Rcam=[x2y2z2αβ$\varphi_2 $]T.

无人机相对无人车的位姿为

${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}} = {{{R}}_{{\rm{UAV}}}} - {{{R}}_{{\rm{AGV}}}} = \left[ {\begin{array}{*{20}{c}} {{x_1} - {x_3}} \\ {{y_1} - {y_3}} \\ {{z_1} - {z_3}} \\ {{\varphi _1} - {\varphi _3}} \end{array}} \right]{\rm{ = }}\left[ {\begin{array}{*{20}{c}} {{x_{{\rm{UA}}}}} \\ {{y_{{\rm{UA}}}}} \\ {{h_{{\rm{UA}}}}} \\ {{\varphi _{{\rm{UA}}}}} \end{array}} \right].$

本文主要针对无人机对无人车跟踪及着陆问题,下文主要围绕位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$展开.

2. 随动视觉跟踪算法研究

视觉跟踪主要采用Camshift跟踪算法[11]. Camshift是MeanShift算法的改进,称为连续自适应的算法. 该算法能够在被跟踪目标的形状、大小发生明显变化时,仍然能够准确地检测到跟踪目标,且算法的运行消耗时间少;当外界颜色丰富且和被跟踪目标的颜色接近时,将会导致跟踪窗口扩大,影响跟踪效果. 为了解决该问题,在无人车上设计合适的“信标”来抵抗外界的干扰. 用来获取图像信息的摄像机安装于具有两自由度的云台,使得摄像机能够根据跟踪过程中的实际情况实时调整自身倾角,防止被跟踪目标瞬时运动过快或无人机遭遇障碍物使无人机突然减速导致“跟丢”,即无人车超过了摄像机的成像范围. 这种根据跟踪过程中的实际情况实时调整摄像机倾角的技术,称为“随动视觉跟踪”.

2.1. 视觉信标设计

根据Camshift跟踪算法的特点,设计如图2(a)的信标. 该信标由蓝色(或其他)“圆润的”三角形图案组成,且内部设置有等距长圆形线条. 检测步骤如下:1)利用Camshift跟踪算法确定信标的位置,锁定跟踪窗口;2)对跟踪窗口进行适当扩大,得到角点检测区域,该区域小于信标外边界;3)在该区域内进行角点检测,通过检测到信标上的“圆润状”三角形的3个角点来确定无人车相对于无人机的方位. 具体方法如下:通过3个角点做三角形,取最短边并求中点,则从该中点指向另一个角点的向量为无人车在相机坐标系的朝向;通过3个角点所做的三角形的几何中心即为信标的中心. 角点检测确定无人机与无人车朝向相对夹角的示意图如图2(a)所示. 图中,箭头的朝向为相机坐标系下无人车朝向的方向向量. 在设计好信标后,开展实验验证. 可知,无人机在不同位置、角度均能够识别信标的位置以及确定信标的朝向,识别结果如图2(b)所示.

将信标图案粘贴于信标板上,用于对无人机的引导,安装示意图如图3所示.

图 2

图 2   视觉信标及视觉识别结果

Fig.2   Visual beacon and visual recognition results


图 3

图 3   信标图案及信标板安装示意图

Fig.3   Beacon pattern and beacon board installation diagram


2.2. 视觉定位下相对位姿解算

在视觉跟踪过程中,需要确定无人车和无人机的相对位置,才能进行下一步的运动控制. 为了方便分析,在跟踪过程中选取相机(云台)坐标系作为惯性系. 此时,相机坐标系下无人车的位姿可以表示为

${{R}}_{{\rm{cam}}}^{{\rm{AGV}}} = {{{R}}_{{\rm{AGV}}}} - {{{R}}_{{\rm{cam}}}} = \left[ {\begin{array}{*{20}{c}} {{x_3} - {x_2}} \\ {{y_3} - {y_2}} \\ {{z_3} - {z_2}} \\ {{\varphi _3} - {\varphi _1}} \end{array}} \right].$

利用跟踪算法识别到无人车后,可以确定无人机在成像画面中的坐标及车头朝向. 相机成像平面如图4所示,选取成像画面中心为坐标原点,建立平面坐标系. 在图2的识别结果中,取信标中心为目标位置,记为 $P\left( {a,b} \right)$,取无人车朝向记为方向向量 ${{i}}$. 定义一指向X轴的向量 ${{p}}$沿原点逆时针旋转,直到和 ${{i}}$平行,此时向量 ${{p}}$转过的角度记为 $\varphi $;当 $\varphi > {180^ \circ }$时,取 $ - \left( {{\rm{36}}{{\rm{0}}^ \circ } - \varphi } \right)$.

图 4

图 4   相机成像平面

Fig.4   Camera imaging plane


相机光心距离地面高度为 $h$,可以推导出 $\left( {h,\varphi } \right)$分别对应 ${{R}}_{{\rm{cam}}}^{{\rm{AGV}}}$中后两个元素. $\left( {a,b} \right)$作为成像区域里无人车的坐标,根据相机焦距 $f$$h$以及相机位姿 ${{{R}}_{{\rm{cam}}}}$,可以推导无人车相对于无人机(相机)的实际坐标,即 ${{R}}_{{\rm{cam}}}^{{\rm{AGV}}}$中的前两个元素.

当相机镜头垂直向下时,相机光轴为一条铅垂线,利用针孔成像模型[12],选取成像平面中心作为原点,在 $X$轴方向上的成像图如图5所示. 图中, $f$为相机焦距, $h$为相机光心距地面的高度.

图 5

图 5   相机垂直时的成像

Fig.5   Imaging when camera is vertical


设无人车在相机坐标系下的坐标为 $\left( {X,Y} \right)$,根据相似三角形原理可得

$\left. { {\begin{array}{*{20}{c}} {X = a {h / f}} ,\\ {Y = b {h / f}}. \end{array}} } \right\}$

当相机存在一定倾角时,定义相机绕自身坐标系的 ${X_2}$轴转过的角度记为 $\alpha $,绕 ${Y_2}$轴转过的角度记为 $\beta $,只考虑相机绕 ${Y_2}$轴转动的情况,在 $X$轴方向上成像的示意图如图6所示.

根据三角函数关系可得: $\tan\; \left( {\angle {\rm{mop}}} \right) = {a / f}$$\angle {{\rm{mop}} = {\rm arctan}}\;\left( {{a / f}} \right)$,则

$\tan \left( {\beta + \angle {\rm{mop}}} \right) = {X}/{h},$

$X = \tan \left[ {\beta + \arctan \left( {{a}/{f}} \right)} \right] h.$

当相机绕自身坐标系的 ${Y_2}$轴转动时,可以推导出无人机的实际位置的纵坐标. 当相机存在一定倾角时,无人车在相机坐标系下的坐标为

$\left. {{\begin{array}{*{20}{c}} {X = \tan \left[ {\beta + \arctan\left( {{a}/{f}} \right)} \right] h} ,\\ {Y = \tan \left[ {\alpha + \arctan \left( {{b}/{f}} \right)} \right] h}. \end{array}} } \right\}$

无人机在无人车坐标系下的位姿为

$ {{R}}_{\rm{AGV}}^{\rm{UAV}}=-{{R}}_{\rm{UAV}}^{\rm{AGV}}=\left[\begin{array}{c}-X\\ -Y\\ h\\ -\varphi \end{array}\right]=\left[\begin{array}{c}-\mathrm{tan}\left[\beta +\mathrm{arctan}\;\left( {{a}/{f}} \right)\right] h\\ -\mathrm{tan}\left[\alpha +\mathrm{arctan}\;\left( {{b}/{f}} \right)\right] h\\ h\\ -\varphi \end{array}\right]. $

式中:右边的所有变量均可由无人机机载传感器直接或间接得到,其中h由激光测距仪获得,αβ由搭载于云台系统的MPU6050惯性传感器获取角速度和加速度经过姿态解算[13]获得.

图 6

图 6   相机倾斜时的成像

Fig.6   Imaging when camera tilts


2.3. 随动视觉跟踪控制策略设计

在跟踪过程中,需要完成无人机的位置及航向控制. 位置控制可以将无人机和无人车理解为质点,航向控制是调整无人机和无人车的相对夹角.

在跟踪过程中,被控对象有2个:无人机位姿和相机位姿. 两者是相互影响的,这增加了控制难度。为了解决该问题,对无人机位姿和相机位姿进行并行控制.

对无人机进行位姿控制,被控对象为位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$中的4个元素. 在正常的跟踪过程中,须给定期望 $E\left( {{{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}} \right)$. 在一般情况下,设置E(−X)=E(−Y)=0,E(−φ)=0,Eh)为以某个高度进行跟踪工作. 比较 $E\left( {{{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}} \right)$与实际 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$得到各元素偏差 $\sigma \left( {{{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}} \right)$,将该偏差送到对应的模糊PID调节器中得到控制量,最终作用于无人机运动执行器,使得无人机完成位姿调整. 在调整完成后,更新位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$,再与 $E\left( {{{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}} \right)$作差得到新偏差,进行下一周期的位姿调节. 通过上述过程,基本可以实现无人机对无人车的实时跟踪,但是为了应对突发情况,比如无人机或无人车突然遇到障碍物减缓自身的速度,导致两者相对速度过大,出现“跟丢”. 本文提出“随动视觉跟踪”技术,在跟踪过程中对无人机进行位姿控制的同时,并行地对相机倾角进行控制. 由于无人机的位移速度受各方面因素的制约,相机的倾角可以非常迅速地进行调整. 利用相机成像画面中的虚拟成像位置的坐标 $\left( {a,b} \right)$,同步实时地调整相机位姿 ${{R}}_{{\rm{UAV}}}^{{\rm{cam}}} = \left[ { 0,\;0,\; } \right.$ $\left. { 0,\;\alpha ,\;\beta ,\;0} \right]^{\rm{T}}$. 根据图6可以推算得出,当无人机和无人车保持相对静止时, ${{R}}_{{\rm{UAV}}}^{{\rm{cam}}}$的改变将会直接导致 $\left( {a,b} \right)$的变化,而 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$是不变的,可以利用 $\left( {a,b} \right)$的特征来调节 ${{R}}_{{\rm{UAV}}}^{{\rm{cam}}}$,不难推导出αb对应,βa对应. 为了实现让相机镜头始终正对着无人车,只要使ab接近于 $0$即可,在具体控制中,给定期望Ea)=Eb)=0,与实际(ab)作差得到偏差σab),然后将偏差σ送到相机角度PID调节器中,得到相应的控制量作用于相机角度执行器,实现实时的倾角调整. 对相机倾角完成一个控制周期后,需要将调整后的倾角(αβ)及当前的(ab),送到无人机位姿调节器中,用于更新位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$. 无人机及相机位姿控制的并级控制流程如图7所示.

图 7

图 7   并级混合型PID控制器

Fig.7   Parallel hybrid PID controller


3. 磁-视觉联合引导精准着陆

提出视觉和磁引导的联合引导方法. 当无人机收到降落指令后,通过视觉跟踪算法,调整自身位姿 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$;在跟踪无人车的同时,不断降低自身相对无人车的高度 $h$;当降落至一定高度后,进入着陆环节,着陆环节由视觉引导和磁引导共同完成.

参考系均选定为无人车,在不加说明的情况下,叙述的位置、角度均认为是相对于无人车的相对位置、角度.

3.1. 磁源和探磁元件布置

3.1.1. 磁源的设计

由于无人机在空中的姿态是不确定的,为了计算及布设的方便性,采用环形电流作为磁源,模型可以抽象为图8所示. 环形导线将铺设在无人车的起降平台上.

图 8

图 8   环形通电导线模型

Fig.8   Ring electrified wire model


根据毕奥萨伐定律[14]可知,在该环形通电导线中,选取一小段电流元 $I{\rm{d}}l$,对任意一场点 $p\left( {{x_0},{y_0},{z_0},} \right)$进行磁场强度分析.

${\rm{d}}{{B}} = \frac{{{\mu _0}}}{{4{\text{π}} }}\frac{{I{\rm{d}}l \times {{r}}}}{{4{\text{π}} |{{r}}{|^2}}} = \frac{{{\mu _0} I{\rm{d}}l\sin \alpha }}{{4{\text{π}} |{{r}}{|^2}}}.$

${{B}} = \int\limits_L {\frac{{{\mu _0}I{\rm{d}}l \times {{{e}}_{\rm{r}}}}}{{4{\text{π}} |{{r}}{|^2}}}} .$

式中: $I$为源电流; $L$为积分路径; $I{\rm{d}}l$为源电流的微小线元素; ${{{e}}_{{r}}}$为电流元指向场点 $P$的单位向量; ${{r}}$为电流元指向场点 $P$的矢量; ${\mu _0}$为真空磁导率, ${\mu _0} = 4{\text{π}} \times {10^{ - 7}}\;{\rm{H/m}}$. ${\rm{d}}{{B}}$的方向垂直于 $I{\rm{d}}l$${{{e}}_{{r}}}$所确定的平面, ${\rm{d}}{{B}}$$I{\rm{d}}l$${{{e}}_{{r}}}$ 3个矢量符合右手定则.

在环形电流中,在 $xoy$平面上建立极坐标系,有 ${\rm{d}}l = {\rm{d}}\theta \times R$,电流元 $I{\rm{d}}l$坐标为 $Q(R\cos \theta ,\;R\sin \theta ,\;0)$,在极坐标下进行线积分,可得

${{B}} = \int_0^{2{\text{π}} } {\frac{{{\mu _0}IR{\rm{d}}\theta \times {{{e}}_{{r}}}}}{{4{\text{π}} |{{r}}{|^2}}}{\rm{ = }}} \frac{{{\mu _0}IR}}{{4{\text{π}} }}\int_0^{2{\text{π}} } {\frac{{{{r}}{\rm{d}}\theta }}{{|{{r}}{|^3}}}} .$

式中:

$\begin{array}{l} {{r}} = \left( {{x_0} - R\cos \theta } \right) {{i}} + \left( {{y_0} - R\sin \theta } \right) {{j}} + {z_0} {{k}}{\rm{,}} \end{array} $

其中 $ {{i}}{\text{、}}{{j}}{\text{、}}{{k}}$为坐标轴的单位方向向量.

3.1.2. 磁场检测及计算分析

检测磁场须选取一种磁传感器,磁传感器较多使用霍尔传感器或工字电感[15]. 对于霍尔器件,当偏置电流 $I$固定时,霍尔电压将完全取决于被测的磁场强度,通常用来检测静态磁场强度,检测精度高,但对于无人机的辅助定位,由于无人机线路复杂且本身干路电流极大,跳变无规律,很容易产生干扰. 工字电感实质上为一螺线圈绕制在工字型线圈上,结构图如图9所示. 当线圈内的磁通量发生变化时,将会产生感应电动势. 给环形导线通入变化的电流,可得变化的磁场强度,在某一位置的电感的磁通量将会变化. 利用电感和电容组成谐振电路,当谐振频率与环形导线电流频率相同时可以构成选频电路,即电感将不容易受到非环形导线电流频率的磁场的干扰. 方波电流是最容易通过简单硬件电路获取的,采用向环形导线通入方波电流来产生变化的磁场的方案. 纯粹的方波是不存在的,在电流发生跳变时,存在一个跳变沿时间. 设该系统的跳变沿时间为 ${t_k}$,周期为 $T$,峰值为 ${I_{\rm{m}}}$,电流时序图可以抽象为图10所示.

图 9

图 9   工字电感实物及原理图

Fig.9   Physical and schematic diagram of I-shaped inductor


图 10

图 10   交变电流时序图

Fig.10   Sequence diagram of alternating current


当电流发生跳变时,磁场跳变,电感产生感应电动势. 在 ${t_1}$${t_2}$区间内,

$\Delta I = {\rm{d}}I = \frac{{2{I_{\rm{m}}}}}{{{t_2} - {t_1}}} = \frac{{2{I_{\rm{m}}}}}{{{t_k}}}.$

磁场变化率为

$\Delta {{B}} = {\rm{d}}{{B}} = \frac{{{\mu _0}{\rm{d}}IR}}{{4{\text{π}} }}\int_0^{2{\text{π}} } {\frac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} {\rm{ = }}\frac{{{\mu _0}{I_{\rm{m}}}R}}{{4{\text{π}} {t_k}}}\int_0^{2{\text{π}} } {\frac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} .$

磁通量变化率为

$\Delta \varPhi = {\rm{d}}{{B}} \cdot S \cdot {{{e}}_l} = \frac{{{\mu _0}{I_{\rm{m}}}RS}}{{4{\text{π}} {t_k}}}\int_0^{2{\text{π}} } {\frac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} \cdot {{{e}}_l}.$

式中: $S$为电感线圈内面积, ${{{e}}_l}$为电感位于任意场点 $P$时电感朝向的单位向量(电感朝向按图9所示的箭头方向). 感应电动势为

$\begin{split} E =& {\mu _{\rm{L}}} {n_{\rm{L}}} {\rm{d}}\varPhi = {\mu _{\rm{L}}}{n_{\rm{L}}} \Delta \varPhi = \\ &\dfrac{{{\mu _{\rm{L}}}{\mu _0}{n_{\rm{L}}}{I_{\rm{m}}}RS}}{{4{\text{π}} {t_k}}}\int_0^{2{\text{π}} } {\dfrac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} \cdot {{{e}}_l}. \end{split} $

式中: ${\mu _{\rm{L}}}$为电感内铁芯磁导率, ${n_{\rm{L}}}$为电感内螺线圈匝数.

${t_3}$${t_4}$区间内, $E = - E$. 依次类推,可知感应电动势的函数表达式为

$E = \left\{ {\begin{array}{*{20}{l}} {E,\;t \in \left[ {(2k) {T}/{2},(2k) {T}/{2} + {t_k}} \right]} ;\\ { - E,\;t \in \left[ {(2k + 1) {T}/{2},(2k + 1) {T}/{2} + {t_k}} \right]}; \\ {0,\;t \in \left[ {k {T}/{2} + {t_k},(k + 1){T}/{2} + {t_k}} \right]} . \end{array}} \right.$

式中: $k$=1,2,3···, $t$为时间.

根据式(16)可得感应电动势 $E$为脉冲电压,可以通过LC并联谐振电路[15]将其转换为正弦波电压,脉冲电压作为谐振电路的能量补充,LC谐振电路谐振频率须和脉冲电压频率相同,即为1/ $T$. 根据下式可以计算谐振电路的电感与电容(电感是用于检测磁场的电感):

$f = \frac{1}{{2{\text{π}} \sqrt {LC} }}.$

式中: $C$为电容; $L$为电感,按以下经验公式[16]计算:

$L = \frac{{{d_{\rm{L}}}{\mu _0}{\mu _{\rm{L}}}sn_{\rm{L}}^2S}}{{2c_{\rm{L}}^2}},$

其中 ${c_{\rm{L}}}$为线圈长度, ${d_{\rm{L}}}$为线圈导线线径.

谐振电路原理图如图11所示.

图 11

图 11   并联谐振等效电路图

Fig.11   Parallel resonance equivalent circuit diagram


计算感应电动势有效值. 记感应电动势有效值为 ${E_{\rm{e}}}$,峰值为 ${E_{\rm{m}}}$,根据式(17)可知,

$\begin{split} {E_{\rm{e}}} = &\frac{{2{t_k}}}{T} {E_{\rm{m}}} = \dfrac{{2{t_k}}}{T} \dfrac{{{\mu _{\rm{L}}}{\mu _0}{n_{\rm{L}}}{I_{\rm{m}}}RS}}{{4{\text{π}} t_k^{}}}\int_0^{2{\text{π}} } {\dfrac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} \cdot {{{e}}_l}{\rm{ = }} \\ &\dfrac{{{\mu _{\rm{L}}}{\mu _0}{n_{\rm{L}}}{I_{\rm{m}}}RS}}{{2{\text{π}} T}}\int_0^{2{\text{π}} } {\dfrac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} \cdot {{{e}}_l}. \end{split} $

结合式(12),可得

$\begin{split} {E_{\rm{e}}}{\rm{ = }}\dfrac{{{\mu _{\rm{L}}}{\mu _0}{n_{\rm{L}}}{I_{\rm{m}}}RS}}{{4{\text{π}} {t_k}}}\int_0^{2{\text{π}} } {\dfrac{{{{r}}{\rm{d}}\theta }}{{{\rm{|}}{{r}}{{\rm{|}}^3}}}} \cdot {e_l} = \dfrac{{{\mu _{\rm{L}}}{\mu _0}{n_{\rm{L}}}{I_{\rm{m}}}RS}}{{2{\text{π}} T}}\times \\ \int_0^{2{\text{π}} } {\dfrac{{\left[ {\left( {{x_0} - R\cos \theta } \right) {{i}} + \left( {{y_0} - R\sin \theta } \right) {{j}} + {z_0} {{k}}} \right]{\rm{d}}\theta }}{{{{\left[ {{{\left( {{x_0} - R\cos \theta } \right)}^2} + {{\left( {{y_0} - R\sin \theta } \right)}^2} + {z_0}^2} \right]}^{{3}/{2}}}}}} \cdot {{{e}}_l}. \end{split}$

分析式(20)可知, ${E_{\rm{e}}}$与方波的跳变沿时间 ${t_k}$无关,这便于实际数据的代入计算.

计算谐振电路输出函数:设谐振电路电压(图11中测点处电压)为

$\dot U = A\sin \left( {{{2{\text{π}} }} t/{T}} \right).$

$\dot U$的有效值为

${U_{\rm{e}}} = {A / {\sqrt 2 }}.$

根据并联谐振电路的特性可知,在一个周期内流经电感和电容的电流有效值相等. 记一个周期内流经电感 $L$${R_0}$、电容 $C$的电流有效值分别为 ${I_L}$${I_{{R_0}}}$${I_C}$,记 ${X_C}$为容抗,则有

${I_{{R_0}}} = {I_L} = {I_C} = \frac{{{U_{\rm{e}}}}}{{|{X_C}|}}{\rm{ = }}\frac{{{U_{\rm{e}}}T}}{{2{\text{π}} C}}.$

记电感内阻两端电压为 ${U_{{R_0}}}$,根据等效电路,有

${U_{\rm{e}}} = {E_{\rm{e}}} - {U_{{R_0}}} = {E_{\rm{e}}} - {I_{{R_0}}} {R_0}.$

结合式(21)~(24),可得

$\dot U = \frac{{2\sqrt 2 {\text{π}} C{E_{\rm{e}}}}}{{2{\text{π}} C + {R_0} T}}\sin \left( {{{2{\text{π}}t }}/{T} } \right).$

对于式(25)的参数,在给定方波电流及周期、电感的物理参数、电感的空间坐标和朝向以及 $C$后(其中 ${E_{\rm{e}}}$可以通过式(20)计算),能够计算最终输出 $\dot U$. 由于 $\dot U$为交流电,只需设计一简单的整流滤波电路即可得到 $\dot U$的有效值(直流电),在经过放大后,传入模/数转换器转化为数字量,在传入控制系统中,可得反映电感在该坐标下感应到的磁场强度的量化标准,量化标准为最终控制系统得到的电压信号.

3.1.3. 传感器的布置

按照3.1.2节推导选取磁引导系统的各硬件参数后,将环形导线布置于无人车的信标板内,将电感安装在无人机上,探讨如何设置电感的数量和排布能够解算出无人机相对于无人车的位置. 按照图12的方式布置.

图 12

图 12   电感及线圈分布图

Fig.12   Distribution of inductance and coil


关于电感布置的推论如下:假设只有一个电感 ${h_{1{\rm{1}}}}$,由于环形磁场的对称性,当电感 ${h_{11}}$位于图12中与 $Y$相对称的2个位置时,最终检测得到的电压信号是一样的,必须设计与 ${h_{1{\rm{1}}}}$相对应的 ${h_{12}}$,通过对比 ${h_{11}}$${h_{12}}$的信号值,可以确定在 $X$方向上的位置. 同理在Y方向须设置电感对 ${h_{21}}$${h_{22}}$. 实际上,设置这样2对电感可以确定无人机相对无人车的位置,但为了提高系统检测稳定性以及考虑实物的对称性和美观,增加了电感对和相对称位置的电感对 ${h_{31}}{\text{、}}{h_{32}}$${h_{41}}{\text{、}}{h_{42}}$,即图12的布置方式.

根据3.1.3节推论的内容,搭建如图13所示的实验系统. 环形线圈布置在无人车信标板的背面,电感传感器序列安装在无人机下方,电感传感器及其他传感器的安装方式如图14所示.

图 13

图 13   电感及线圈实物图

Fig.13   Physical diagram of inductance and coil


图 14

图 14   无人机传感布置示意图

Fig.14   Schematic diagram of UAV sensor layout


在环形线圈上通入200 mA的20 kHz的方波电流,搭建相应的探磁电路后,将电感置于线圈附近,用示波器测量电感两端电压,得到如图15所示的结果. 可以看出,通过LC谐振电路得到的信号值呈频率为20 kHz的标准正弦波;通过实验发现,当电感位于线圈的不同位置时,正弦波的振幅是不同的,结果符合式(25)推导的结果. 在对电感两端的电压进行放大滤波处理后,得到稳定的电压;通过数模转换器将电压转换成相应的数字量传到总控制系统中,可以对每组电感的电压进行分析和处理.

当无人机接近无人车时,电感将会检测到磁场信号,无人机在不同高度和位置下每个电感的信号值(电感两端的电压)是不同的. 通过8个电感的具体值,利用式(25)、(20)可以反推出无人机相对无人车的位置是可以实现的,但是十分复杂的,且考虑到硬件元器件的误差,对推算结果的取舍很困难. 通过3.1.1节推论证明可知,8个电感的信号值对应的无人机相对于无人车的位置是高度线性可分的,借助神经网络找出8个电感对应的相对位置关系.

图 15

图 15   LC电路两端的电压变化

Fig.15   Voltage change at both ends of LC circuit


3.1.4. 基于神经网络的相对位姿回归分析

若能找出8个电感信号值与无人机相对无人车的位置(即位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$中前3个元素)之间的内在联系,则可以计算出该相对位置. 需获取无人机在无人车的不同位置下相应的8个电感序列的信号值,分析取得的大量数据,找出电感序列的信号值与无人机相对无人车的位置关系的内在联系.

开展数据的采集,借助工业机械手,带动无人机依次到达无人车线圈上方的各个位置,采集实验过程如图16所示. 设定线圈位置的原点,使得无人机在机械手的带动下依次到达如图17所示的每个坐标点,分别获取8个电感信号值,共计17 298组电感信号值,每组包含8个电感信号值.

图 16

图 16   借助机械臂完成数据采集

Fig.16   Data acquisition with help of manipulator


图 17

图 17   无人机依次到达的坐标点

Fig.17   Coordinate points of UAV in turn


在数据采集完成后,取该距离线圈高度为225 mm的电感 ${h_{11}}$进行分析,得到如图18所示的结果. 图中,UL为电感两端的电压。可以看出,在一定高度下,电感距离线圈的导线越近,信号值越大,且变化是连续可微的.

图 18

图 18   单个电感信号强度分布图

Fig.18   Signal intensity distribution of single inductor


观察电感信号值的波形发现,波形“山脊”处呈现一段圆弧,圆弧路径与线圈该处的导线重合;波形中“山脊”左侧呈“凹”函数,“山脊”右侧呈“凸”函数. 通过对线圈布置的分析可知,波形中“山脊”左侧图像对应电感位于线圈内侧,右侧图像位于线圈外侧. 对8个电感的信号值进行统计分析发现,每个电感的波形分布基本与图18类似. 根据这些特征,可以设计合理的神经网络结构,找出在不同高度下电感序列H的每个值所对应的无人机相对无人车的位置.

构建9输入、2输出的神经网络,训练得到电感序列H中所有电感信号值所蕴含的相对位置特征. 9输入包括电感序列H的8个电感信号值以及无人机与无人车上环形线圈的相对高度 ${h_{{\rm{UA}}}}$${h_{{\rm{UA}}}}$由安装在无人机下方激光测距仪获取. 2输出为 $\left( {{x_{{\rm{UA}}}},{y_{{\rm{UA}}}}} \right)$,无人机相对于无人车的各传感器位置如图14所示.

采用误差反向传播算法(BP)[17]的改进算法,借助Matlab,对采集好的数据进行训练. 隐含层节点数为32,学习效率为0.05,引入动量因子,初设最大迭代次数为1 000. 选取样本集的70%作为训练集,15%作为验证集,用于训练过程中对网络参数的调整;剩下15%作为测试集,用于对训练好的网络进行测试,检验最终输出精度. 数据集上传于( https://download.csdn.net/download/weixin_43480181/12821347),欢迎读者下载验证. 训练结果如图1920所示. 图中,N为迭代次数,MSE为均方误差,n为实例数。

图 19

图 19   均方误差曲线

Fig.19   Mean square error curve


图 20

图 20   误差直方图

Fig.20   Error histogram


图20可以看出,15%的测试集结果误差集中分布在−0.8~0.6 mm,最大误差小于5 mm,训练结果良好,相对位置解算精度较高. 通过图1920的训练和验证结果,利用该种网络结构,可以控制无人机着陆时的位置采集精度小于5 mm,基本满足高精度着陆的要求;将训练好的网络及权重编程实现到无人机控制的嵌入式系统中. 在着陆过程中,只需实时采集到电感序列H的信号值及高度h,将其输入到训练好的网络中,可以实时地获取无人机相对无人车的位置.

3.2. 视觉-磁引导联合着陆

在磁引导过程中,需要视觉辅助,使得无人机和无人车的朝向保持一致. 在视觉跟踪过程中,无人机通过无人车上的视觉信标调整自身的朝向,虽然不太精确,但能够控制在一定误差范围内. 在进行着陆时,当无人机距离无人车很近时,信标已经超过相机成像区域,这时相机成像畸变大,定位精度低,可以切换到磁-视觉引导. 通过磁引导获取位姿矩阵 ${{R}}_{{\rm{AGV}}}^{{\rm{UAV}}}$中的 ${x_{{\rm{UA}}}}{\text{、}}{y_{{\rm{UA}}}}$,利用激光测距仪获取相对高度 ${h_{{\rm{UA}}}}$,但不能确定相对角度 ${\varphi _{{\rm{UA}}}}$. 此时的视觉引导不再对成像区域进行信标图案的特征检测,而是对成像画面中部区域进行梯度计算,提取线条特征[18],找出成像画面中的视觉信标中部“槽口”内平行线,示意图如图21所示. 由于一对平行线的特殊性,即使相机存在大的畸变或抖动,通过对2条线进行几何分析,仍然能够精确得到无人机的相对角度.

图 21

图 21   视觉信标中部线条检测结果

Fig.21   Detection results of middle line of visual beacon


针对图21中检测到的线条特征,提出“星型窗格辅助分析法”,从线条特征中提取精确的无人机相对无人车的夹角,具体方法如下.

1)对检测到的6条线条(偶数),按对称关系分类成3对,如图21所示.

2)建立正方形星型窗格,如图22(a)所示. 窗格包含4条辅助线,窗格边长取成像画面宽度的1/3(根据成像可以进行调整).

图 22

图 22   星型窗格辅助分析法示意图

Fig.22   Schematic diagram of star window auxiliary analysis method


3)取任意一对线条进行分析,记辅助线1、2与线条对的交点为mnop,再连接线段mnop的中点,即可得到一条方向线. 对其他两线条对作同样算法,得到2条方向线,取这3条方向线的均值作为最终方向线.

对于步骤3),当线条对与辅助线1、2无交点时,则选取辅助线3、4进行步骤3)相同的运算,示意图如图22(d)所示.

通过该方法解算得到,方向线能够很好地消除成像畸变、视角畸变带来的误差,解算图解如图22所示.

4)根据方向线,确定相对角度. 方向线上存在2个朝向. 在即将进入着陆程序前,记录当前时刻无人车相对于无人机的朝向PAU;进入着陆后,选取方向线2个朝向中与PAU成锐角的朝向,将该朝向作为无人车在无人机坐标系下新的方向向量 ${{P}}_{{\rm{AU}}}^\prime$,通过 ${{P}}_{{\rm{AU}}}^\prime$可以计算无人机与无人车的相对角度.

以下对星型窗格辅助分析法进行精度验证. 与验证磁引导精度的方式相同,将无人机固定在工业机械臂上(该机械臂腕关节转动精度为 $ \pm {\rm{0}}{\rm{.01}}{{\rm{1}}^ \circ }$),使机械臂带动无人机从 ${\rm{ - 9}}{{\rm{0}}^ \circ }$逆时针依次转动 ${\rm{3}}{{\rm{0}}^ \circ }$直到 ${\rm{ + 9}}{{\rm{0}}^ \circ }$. 在不同角度下分别记录5次通过星型窗格辅助分析法解算出的相对角度,结果如表1所示.

表 1   星型窗格辅助分析法测试结果表

Tab.1  Test results of star window auxiliary analysis method

A A1 A2 A3 Q
${\rm{ - 9}}{{\rm{0}}^ \circ }$ ${\rm{ - 89}}{\rm{.9}}{{\rm{8}}^ \circ }$ ${\rm{ - 90}}{\rm{.3}}{{\rm{5}}^ \circ }$ ${\rm{ - 90}}{\rm{.2}}{{\rm{7}}^ \circ }$ ${\rm{ - 0} }{\rm{.2} }{ {\rm{5} }^ \circ },\;{0.02^ \circ }$
${\rm{ - 6}}{{\rm{0}}^ \circ }$ ${\rm{ - 60}}{\rm{.0}}{{\rm{4}}^ \circ }$ ${\rm{ - 40}}{\rm{.4}}{{\rm{6}}^ \circ }$ ${\rm{ - 59}}{\rm{.5}}{{\rm{3}}^ \circ }$ ${\rm{ - 0} }{\rm{.4} }{ {\rm{6} }^ \circ },\;{0.47^ \circ }$
${\rm{ - 3}}{{\rm{0}}^ \circ }$ ${\rm{ - 30}}{\rm{.3}}{{\rm{1}}^ \circ }$ ${\rm{ - 30}}{\rm{.3}}{{\rm{2}}^ \circ }$ ${\rm{ - 30}}{\rm{.3}}{{\rm{4}}^ \circ }$ ${\rm{ - 0} }{\rm{.3} }{ {\rm{4} }^ \circ },\;{0.31^ \circ }$
${{\rm{0}}^ \circ }$ ${\rm{ - 0}}{\rm{.0}}{{\rm{2}}^ \circ }$ ${\rm{ - 0}}{\rm{.4}}{{\rm{5}}^ \circ }$ ${\rm{0}}{\rm{.1}}{{\rm{1}}^ \circ }$ ${\rm{ - 0} }{\rm{.4} }{ {\rm{5} }^ \circ },\;{0.11^ \circ }$
${\rm{3}}{{\rm{0}}^ \circ }$ ${\rm{ - 29}}{\rm{.7}}{{\rm{4}}^ \circ }$ ${\rm{29}}{\rm{.6}}{{\rm{7}}^ \circ }$ ${\rm{29}}{\rm{.5}}{{\rm{4}}^ \circ }$ ${\rm{ - 0} }{\rm{.4} }{ {\rm{6} }^ \circ },\;{\rm{ - } }{0.26^ \circ }$
${\rm{6}}{{\rm{0}}^ \circ }$ ${\rm{60}}{\rm{.1}}{{\rm{2}}^ \circ }$ ${\rm{60}}{\rm{.0}}{{\rm{6}}^ \circ }$ ${\rm{59}}{\rm{.8}}{{\rm{8}}^ \circ }$ ${\rm{ - 0} }{\rm{.1} }{ {\rm{2} }^ \circ },\;{0.12^ \circ }$
${\rm{9}}{{\rm{0}}^ \circ }$ ${\rm{90}}{\rm{.2}}{{\rm{3}}^ \circ }$ ${\rm{90}}{\rm{.1}}{{\rm{7}}^ \circ }$ ${\rm{90}}{\rm{.0}}{{\rm{0}}^ \circ }$ ${ {\rm{0} }^ \circ },\;{0.23^ \circ }$

新窗口打开| 下载CSV


表1中,A为机械臂转过的角度,An为第n次解算的角度,Q为解算精度(误差范围). 分析Q的范围并综合机械臂本身的转角误差( $ \pm {\rm{0}}{\rm{.01}}{{\rm{1}}^ \circ }$),可以估算利用星型窗格辅助分析法解算的角度测量精度小于0.5°.

通过上述磁和视觉引导,可以获取在着陆时的无人机位姿矩阵. 将给定期望值与实际值比较,得到相应偏差,进行PID调节. 设定期望 $E \left( {{x_{{\rm{UA}}}},{y_{{\rm{UA}}}},{\varphi _{{\rm{UA}}}}} \right) = 0$$E\left( {{h_{{\rm{UA}}}}} \right)$要结合当前的位置偏差、角度偏差以及相对速度来设定,使得 $E\left( {{h_{{\rm{UA}}}}} \right)$逐步趋向于0,最终实现着陆. 由于在着陆过程中,无人机与无人车之间设置有机械导向机构,允许一定的定位误差,但引导机构所能承受的最大误差和自身体积成正比,意味着无人机着陆误差越小,越能缩小无人车的起降平台尺寸及无人车自身的大小.

4. 实验及结论

4.1. 实验平台的搭建

该实验主要用无人机和无人车,均为自研设备. 无人机为四旋翼布局,飞控系统是基于PIXHAWK开源飞控二次开发. 无人机搭载工控计算机,用于视觉算法以及神经网络算法运算. 无人机下方搭载自研设备-云台,用于调节相机倾角,还搭载部分传感器. 无人车搭载激光雷达、深度摄像头用于自身进行构建地图和路径规划,主要为无人机的跟踪实验提供基础. 无人车上设置内锥面的引导机构,允许无人机的着陆位置存在2.5 cm的误差,实验平台实物图如图23所示.

图 23

图 23   无人机和无人车实验平台实物图

Fig.23   Physical picture of VAV and AGV experimental platform


4.2. 视觉跟踪实验

跟踪实验分为以下2组. 第1组用于整体跟踪的效果验证,验证整体的位置跟踪精度和航向跟踪精度. 第2组主要验证“随动视觉跟踪”在无人车与无人机的相对速度过大时,能否解决跟踪的问题.

第1组实验. 使无人车以正方形路径匀速进行行进,无人机通过视觉跟踪无人车. 规定无人车的初始朝向航向角为0°,无人车沿逆时针转过的角度为正数,反之亦然. 无人车的航向角将经历从0°、90°、180°、270°的变化,在实际的实验过程中,通过机载采集及存储设备,采集两者的实时航向角并保存,变化曲线如图24所示.

图 24

图 24   矩形路线跟踪无人机航向角变化

Fig.24   Heading angle change of rectangular route following UAV


通过上述分析可知,在跟踪过程中,无人机对无人车的航向跟踪效果良好,直线行驶时稳态误差小于5°,航向跟踪的延后时间约为300 ms.

第2组实验. 这组实验主要验证“随动视觉跟踪”,用来解决在实际应用中无人车或无人机在正常工作过程中遇到障碍物,导致相对速度突然增大的情况. 具体的实验方法如下.

使无人车沿直线全速行驶,然后在某一时刻突然刹车,模拟无人机和无人车的相对速度突然增大的问题. 在该环境下,对比“随动视觉跟踪”和常规固定视角的视觉跟踪的整个运行过程的相机倾角、相对位置误差(视觉解算而得,只作为实验验证的参考)以及车速的变化. 通过这2种方法,记录各参数的变化曲线,如图2526所示. 图中,v为无人车车速。

图 25

图 25   随动视觉跟踪

Fig.25   Follow up visual tracking


图 26

图 26   常规视觉跟踪

Fig.26   Conventional visual tracking


分析图25可知,无人车从零时刻开始加速,到6 s时达到最大速度,到18 s时突然刹车,此时两者的相对位置发生突变,“随动视觉跟踪”发挥作用,相机的俯仰角β立即调整(即向后方偏转,保证跟踪视野不被丢失);无人机根据相对位置误差调节飞行状态,相机相应地调节,逐步回到正常跟踪状态. 在该过程中,整个调节周期的耗时约为4 s,最大位置误差约为0.9 m,相机俯仰角变化最大约为27.5°.

图2526所示,在固定视角下进行实验. 实验时,将相机云台的驱动电机锁死. 可以看出,相机倾角波动较多,在第22 s左右跟丢,即无人机信标已脱离相机的成像画面;之后无人机启动自我保护措施,悬停在当前位置,跟踪失败.

该对比实验均是在限制无人机最大飞行速度下完成的,试验结果仅为了证明所提方法具备可行性,在实际应用中根据硬件参数的不同将获得不同的跟踪性能参数.

在2组实验中,无人机对视觉信标的识别及相对位姿解算结果如图27所示. 图中,XY为相对位置坐标;Angle为相对夹角;Use time为处理一帧图像消耗的时间,约为5 ms/帧.

跟踪实验的实地测试如图28所示.

图 27

图 27   信标识别结果

Fig.27   Beacon recognition results


图 28

图 28   跟踪过程图片

Fig.28   Tracking process picture


4.3. 着陆实验

在正常跟踪过程中,给无人机发送着陆指令,观察无人机着陆是否成功及着陆过程的稳定性. 在实验中,对着陆过程拍摄视频,截取几个关键帧,如图29所示.

图 29

图 29   着陆过程示意图

Fig.29   Schematic diagram of landing process


从跟踪到着陆过程中,实时采集无人机的相对高度和无人机与无人车之间的相对位置误差. 在进入磁引导之前,由视觉获取位置误差;进入磁引导后,由磁获取位置误差. 绘制的位姿变化图如图30所示. 当无人机相对高度低于30 cm时,进入磁引导环节;此时在高精度磁引导下,相对位置误差逐步减小并稳定,当相对位置误差稳定到小于2 cm时完成着陆.

图 30

图 30   磁引导下着陆过程位置变化

Fig.30   Attitude change during landing under magnetic guidance


为了证明着陆环节磁引导具备优越性,在相同环境下完成一组关闭磁引导的对比实验. 这时磁引导只作为测量无人机的相对位置误差,不参与控制环节的位置PID调节,记录实验过程数据,如图31所示. 可以发现,当无人机在30 cm的相对高度时,由于视觉定位的测量精度不高,始终不能稳定保持相对位置误差小于2 cm,达不到着陆要求,无法着陆.

图 31

图 31   无磁引导下着陆过程位置变化

Fig.31   Attitude changes during landing under non magnetic guidance


经过多次实验可知,在有磁引导下,不论是在无人车静止或者运动状态下,每次无人机在接收到着陆指令后均能够稳定着陆在无人车上,验证了在着陆过程中利用磁引导联合视觉辅助确定航向的方法的正确性和合理性.

5. 结 语

提出“随动视觉跟踪”及磁联合视觉引导的方式完成精准着陆,并提出相应的控制策略,通过实验验证了所提方法的正确性和可行性. 在跟踪过程中,无人机对视觉信标的识别速度可达5 ms/帧,该方法为实现超高速视觉跟踪提供了可能性;当无人机和被跟踪对象的相对速度(位置)发生突变时,“随动视觉跟踪”能够发挥良好作用,实时调整相机倾角,防止目标离开跟踪视野. 在着陆过程中,通过磁引导可以实现位置测量精度小于5 mm,利用“星型窗格辅助分析法”的视觉定位方法可以实现小于0.5°的角度测量精度. 在获取该精度下的位姿数据后,利用运动控制算法可以实现小于2 cm的着陆精度.

参考文献

Volpe National Transportation Systems Center. Unmanned aircraft system (UAS) service demand 2015-2035: literature review and projections of future usage [R]. Cambridge, USA: Volpe National Transportation Systems Center, 2013.

[本文引用: 1]

卢俊文, 王倩营

无人机演变与发展研究综述

[J]. 飞航导弹, 2017, (11): 45- 48

LU Jun-wen, WANG Qian-ying

Review of UAV evolution and development

[J]. Aerodynamic Missile Journal, 2017, (11): 45- 48

RODRIGUEZ R H, VEGA P V, ORTA S A, et al

Robust back-stepping control based on integral sliding modes for tracking of quadrotors

[J]. Journal of Intelligent and Robotic Systems, 2014, 73 (1): 51- 66

[本文引用: 1]

GHOMMAM J, SAAD M

Autonomous landing of a quadrotor on a moving platform

[J]. IEEE Transactions on Aerospace and Electronic Systems, 2017, 53 (3): 1504- 1519

[本文引用: 1]

王日俊, 白越, 续志军, 等

基于扰动观测器的多旋翼无人机机载云台模糊自适应跟踪控制

[J]. 浙江大学学报: 工学版, 2015, 49 (10): 2005- 2012

[本文引用: 2]

WANG Ri-jun, BAI Yue, XU Zhi-jun, et al

Fuzzy self-adjusting tracking control based on disturbance observer for airborne platform mounted on multi-rotor unmanned aerial vehicle

[J]. Journal of Zhejiang University: Engineering Science, 2015, 49 (10): 2005- 2012

[本文引用: 2]

FALANGA D, ZANCHETTIN A, SIMOVIC A, et al. Vision-based autonomous quadrotor landing on a moving platform [C] // 2017 IEEE International Symposium on Safety, Security and Rescue Robotics. Shanghai: IEEE, 2017: 200-207.

[本文引用: 1]

亓岳鑫. 四旋翼无人机控制系统的设计与实现[D]. 哈尔滨: 哈尔滨工业大学, 2018.

[本文引用: 2]

QI Yue-xin. Design and implementation of control system for four-rotor UAV [D]. Harbin: Harbin Institute of Technology, 2018.

[本文引用: 2]

CHEN X, PHANG S K, SHAN M, et al. System integration of a vision-guided UAV for autonomous landing on moving platform [C] // 12th IEEE International Conference on Control and Automation. Kathmandu: IEEE, 2016: 761-766.

[本文引用: 2]

张含阳

Hover Camera王孟秋: 超能创业者的“新”与“旧”

[J]. 机器人产业, 2016, (6): 114- 120

[本文引用: 1]

ZHANG Han-yang

Hover Camera WANG Meng-qiu: "new" and "old" of super entrepreneurs

[J]. Robot Industry, 2016, (6): 114- 120

[本文引用: 1]

王术波, 韩宇, 陈建, 等

基于ADRC迭代学习控制的四旋翼无人机姿态控制

[J]. 航空学报, 2020, 41 (12): 319- 331

[本文引用: 1]

WANG Shu-bo, HAN Yu, CHEN Jian, et al

UAV attitude active disturbance rejection control based on iterative learning control

[J]. Acta Aeronautica et Astronautica Sinica, 2020, 41 (12): 319- 331

[本文引用: 1]

ZHANG C Y, CHEN L, GOU R B

High-speed vision extraction based on the CamShift algorithm

[J]. Cluster Computing, 2019, 22 (1): 555- 564

[本文引用: 1]

张鹏炜, 张智诠, 胡磊, 等

基于针孔模型的双目视觉标定误差仿真分析

[J]. 电光与控制, 2009, 16 (12): 65- 69

DOI:10.3969/j.issn.1671-637X.2009.12.018      [本文引用: 1]

ZHANG Peng-wei, ZHANG Zhi-quan, HU Lei, et al

Calibration error simulating analysis of binocular vision based on pinhole camera model

[J]. Electronics Optics and Control, 2009, 16 (12): 65- 69

DOI:10.3969/j.issn.1671-637X.2009.12.018      [本文引用: 1]

MARANTOS P, KOVEOS Y, KYRIAKOPOULOS K J

UAV state estimation using adaptive complementary filters

[J]. IEEE Transactions on Control Systems Technology, 2016, 24 (12): 1214- 1226

[本文引用: 1]

梁灿彬, 秦光戎, 梁竹健. 电磁学[M]. 北京: 高等教育出版社, 2012.

[本文引用: 1]

尹琪, 周刚, 邹志峰, 等

极低频电磁辐射检测仪的传感器选择分析

[J]. 电器与能效管理技术, 2018, (5): 25- 28

[本文引用: 2]

YIN Qi, ZHOU Gang, ZOU Zhi-feng, et al

Sensor selection and analysis of extremely-low-frequency electromagnetic radiation detector

[J]. Electrical and Energy Management Technology, 2018, (5): 25- 28

[本文引用: 2]

张治国, 谢运祥, 袁兆梅

并联谐振变换器的电路特性分析

[J]. 华南理工大学学报: 自然科学版, 2013, 41 (4): 33- 38

[本文引用: 1]

ZHANG Zhi-guo, XIE Yun-xiang, YUAN Zhao-mei

Analysis of circuit characteristics of parallel resonant converter

[J]. Journal of South China University of Technology: Natural Science Edition, 2013, 41 (4): 33- 38

[本文引用: 1]

李剑锋, 吴林弟, 胡伍生, 等

基于BP神经网络算法的对流层湿延迟计算

[J]. 东南大学学报: 自然科学版, 2013, 43 (Suppl. 2): 355- 359

[本文引用: 1]

LI Jian-feng, WU Lin-di, HU Wu-sheng, et al

Calculation of tropospheric wet delay based on BP neural network algorithm

[J]. Journal of Southeast University: Natural Science Edition, 2013, 43 (Suppl. 2): 355- 359

[本文引用: 1]

WILLIAM M

The Canny edge detector revisited

[J]. International Journal of Computer Vision, 2011, 91 (10): 251- 261

[本文引用: 1]

/