浙江大学学报(工学版), 2023, 57(2): 267-276 doi: 10.3785/j.issn.1008-973X.2023.02.007

计算机技术

基于Gram矩阵的T-CNN时间序列分类方法

王俊陆,, 李素, 纪婉婷, 姜天, 宋宝燕,

辽宁大学 信息学院,辽宁 沈阳 110036

T-CNN time series classification method based on Gram matrix

WANG Jun-lu,, LI Su, JI Wan-ting, JIANG Tian, SONG Bao-yan,

School of Information, Liaoning University, Shenyang 110036, China

通讯作者: 宋宝燕,女,教授. orcid.org/0000-0003-4285-578X. E-mail: bysong@lnu.edu.cn

收稿日期: 2022-07-28  

基金资助: 国家重点研发计划资助项目

Received: 2022-07-28  

Fund supported: 国家重点研发计划资助项目

作者简介 About authors

王俊陆(1988—),男,博士生,从事大规模图处理技术、大数据处理技术和流数据处理技术研究.orcid.org/0000-0001-5966-335X.E-mail:wangjunlu@lnu.edu.cn , E-mail:wangjunlu@lnu.edu.cn

摘要

时间序列分类是流式数据事件分析和数据挖掘的基础. 针对现有方法损失时间属性、分类准确率低、效率低等问题,提出基于Gram矩阵的T-CNN时间序列分类方法. 该方法对时间序列进行小波阈值去噪,过滤正态曲线噪声,提出基于Gram矩阵的无损时间域图像转换方法,保留事件全部信息. 改进时间序列CNN分类方法,在卷积层计算引入Toeplitz卷积核矩阵,实现矩阵乘积替换卷积运算. 引入Triplet网络思想,构建T-CNN分类模型,通过计算同类事件与不同类事件间的相似度优化CNN的平方损失函数,提高T-CNN模型梯度下降的收敛速率及分类准确性. 实验表明,相比现有方法,T-CNN时间序列分类方法能够提高35%的分类准确率、35%的分类精确率及40%的分类效率.

关键词: Gram矩阵 ; T-CNN模型 ; Toeplitz ; 损失函数 ; Triplet网络

Abstract

Time series classification is the basis of streaming data event analysis and data mining. A T-CNN time series classification method based on Gram matrix was proposed, aiming at the problems of loss of time attribute, low classification accuracy and low efficiency of the existing methods. Specifically, the time series was denoised by wavelet threshold to filter out normal curve noise, and a lossless transformation method based on the Gram matrix was proposed to convert the time series into time-domain images and retain all event information. Then the CNN classification method of time series was improved, and the Toeplitz convolution kernel matrix was introduced into the convolutional layer calculation to realize the replacement of convolution operation with matrix product. The Triplet network was introduced to construct the T-CNN classification model, and the square loss function of CNN was optimized by calculating the similarities between similar events and different kinds of events, so as to improve the convergence rate of gradient descent and the classification accuracy of the T-CNN model. Experimental results show that compared with the existing methods, the proposed T-CNN time series classification method can improve the classification accuracy by 35%, the classification precision by 35% and the classification efficiency by 40%.

Keywords: Gram matrix ; T-CNN model ; Toeplitz ; loss function ; Triplet network

PDF (1308KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王俊陆, 李素, 纪婉婷, 姜天, 宋宝燕. 基于Gram矩阵的T-CNN时间序列分类方法. 浙江大学学报(工学版)[J], 2023, 57(2): 267-276 doi:10.3785/j.issn.1008-973X.2023.02.007

WANG Jun-lu, LI Su, JI Wan-ting, JIANG Tian, SONG Bao-yan. T-CNN time series classification method based on Gram matrix. Journal of Zhejiang University(Engineering Science)[J], 2023, 57(2): 267-276 doi:10.3785/j.issn.1008-973X.2023.02.007

时间列数据是按某一给定采样频率,对某一过程进行监测得到的一段实值数据波形,随时间戳变化连续记录,不受系统环境之类的因素影响[1]. 近年来,随着信息技术的发展,时间序列的应用越来越广泛,如灾害监测、安全分析、金融商业等领域[2],无时无刻都在产生大量带有时间属性的数据. 如何对时间序列进行高效分类[3-4]是流式数据事件分析和数据挖掘的基础,也是领域研究的热点和难点. 以矿山灾害监测预警系统为例,利用部署在矿山周围的传感器对微震数据进行实时存储,矿山灾害事件通常会持续几秒至几十秒,每个灾害均为时间序列事件,对这些灾害事件进行类型划分[5],有利于归纳总结各种类型灾害的特征,对于灾害数据分析和灾害救援工作都具有非常重要的意义.

现有的时间序列分类方法多使用基于符号化聚合近似方法[6]和神经网络[7-8]的分类方法. 符号化聚合方法将序列分段后用字母表示,再进行分类,可以对时间序列降维,分类较快,但损失了时间序列的时序属性,分类准确性不高. 神经网络方法在对时间序列分类时,须将时间序列转化成矩阵,模型训练过程时间复杂度高,同时损失了其时间属性.

针对上述问题,本研究提出基于Gram矩阵[9]的T-CNN时间序列分类方法,在保留时序性的基础上,改进CNN模型在全连接层的平方损失函数[10],提高分类的准确性和效率. 主要贡献如下:1)针对时间序列矩阵转换后损失时间属性的问题,提出基于Gram矩阵的转化方法,将时间序列无损转换为时间域图像,并采用小波阈值去噪法滤除正态背景噪声[11-12];2)在将转换后的时间域图像输入到卷积神经网络后,为了加快网络收敛速率,在卷积层引入Toeplitz[13]卷积核矩阵,实现矩阵乘积替换传统卷积运算;3)在此基础上,提出T-CNN分类模型,在全连接层引入Triplet网络[14]思想,计算同类间与不同类间的相似度,优化CNN模型的损失函数,从而加快模型收敛速率,提高分类的准确性.

1. 相关工作

目前,国内外学者对时间序列分类方法进行了深入研究,取得了一定的研究成果,主要包括基于符号化聚合近似、基于时间域距离、基于Shapelet、基于深度学习的时间序列分类方法.

在基于符号化聚合近似的分类方面,Fang等[15]提出基于符号化聚合近似(symbolic aggregate approximation,SAX)的方法进行分类,将序列进行分段,每一段转化为一个对应的字母,统计字母出现的频率进行分类,该方法利用了聚合思想,对时间序列进行有效降维,可以提高分类的速率,但牺牲了时间序列的大量数据点,分类的准确性不高; El-Shorbagy等[16]提出基于时间序列数据趋势转折点(trend turning points,TTP)的分类方法,通过提取时间序列本身的趋势特征,将具有相同趋势的序列为一类,该方法须对每段时间序列的极值点、拐点之类的特征点进行统计分析,对特定规律的数据集分类有较好的效果,但对于数据规模大的数据集和趋势变化剧烈的数据集,分类效果较差.

在基于时间域距离的分类方面,Vianna等[17]提出基于时间域距离(time domain distance,TDD)的时间序列分类方法,通过计算不同序列之间的欧式距离来反映时间序列之间的相似性,距离越近相似性越高,该方法只使用距离公式,计算简单分类快速,总体的分类准确性较低;Cheng等[18]提出基于间隔的支持向量机(support vector machine, SVM)分类方法,该方法将时间序列划分为等长的间隔,计算每个间隔的均值和标准差后,使用支持向量机进行分类。虽然该方法使用了分类器,有助于提高分类效率,但该方法将时间序列看作普通离散数据点集,损失了时间属性,导致分类准确性不高.

在基于Shapelet的时间序列分类方面,赵超等[19]提出基于Shapelet的时间序列分类方法,该方法从已知类标签的全体时间序列中找到能够反映相应分类特征的子序列集合(Shapelet),利用Shapelet进行后续的时间序列分类操作,该方法具有较高的分类准确性,但Shapelet提取的时间复杂度高,分类效率低;汪建梅等[20]提出基于卷积神经网络的分类方法,该方法使用CNN网络直接对时间序列进行图像分类,CNN能够有效地对图像进行分类,但网络训练时间复杂度高,分类速率慢,同时把时间序列看作二维图像,没有考虑时序性问题.

在基于深度学习的时间序列分类方面,Kong等[21]提出基于门控机制的长短期记忆(long short term memory,LSTM)模型分类方法,该方法解决了梯度反传过程由于逐步缩减而产生的Vanishing Gradient问题,但LSTM时间跨度大、网络深,导致计算量大、耗时长. Zhou 等[22]提出基于多头自注意力机制的Transformer模型分类方法,该方法可以同时建模长期依赖和短期依赖,有更强的长期依赖建模能力,在长序列上效果更好. 但Transformer是基于序列的编解码结构,须处理序列的编解码,导致计算空间复杂度大[23].

本研究针对上述问题,提出基于Gram矩阵的T-CNN时间序列分类方法,使用Gram矩阵将时间序列无损地转换为时间域图像,保留了时间序列的时序性,并提出基于卷积神经网络的T-CNN分类模型,优化模型损失函数,提高分类的准确性和效率.

2. 时间序列的Gram矩阵转换

时间序列事件并不是一个或少数几个异常感知数据点,而是在时间域上满足阈值范围的一系列离散数据点组成的数据集合[24],且相同类型的事件通常都具有相同或相似的特征规律[25].

定义1  时间序列. 设 $T = \{ {t_1},{t_2},{t_3},\cdots,{t_n}\}$为一个长度为 $ n $的实值连续数据序列. 其中, ${t_1},{t_2}, {t_3},\cdots,{t_n}$按照时间的先后顺序排列, $ {t_i} $表示时间序列 $ T $的第 $ i $点数值, $ T $被称为一个时间序列.

定义2  时间序列事件. 由时间序列中超过阈值范围第1个异常点发起,并持续一段时间的连续异常数据的集合,表示为 $E = \{ {e_1},{e_2},\cdots,{e_i}, \cdots, e_n\}$. 其中, $ {e_i} $为事件中的某个异常数据点,|ei|> $\varphi $$ \varphi $为给定的阈值范围.

由以上定义可知,时间序列事件均具有时间属性. 针对现有时间序列矩阵转换方法损失时间属性的问题,通过时间序列的Gram时间域图像无损转换法,实现时间序列的全信息无损转换.

2.1. 正态噪声滤除

Gram矩阵转换后的时间域图像直方图会呈现正态分布,正态噪声(多为高斯噪声)的存在会直接影响时间域图像转换的准确性. 因此,在使用Gram矩阵转换时间序列前先进行数据预处理,用小波阈值去噪法滤除数据中携带的正态背景噪声.

去噪步骤如下:1) 信号的小波分解. 选择一个小波并确定一个小波分解的层次 $ N $,然后对信号进行 $ N $层小波分解计算. 2) 小波分解高频系数的阈值量化. 对第1层到第 $ N $层的每一层高频系数, 选择一个阈值进行阈值量化处理. 3) 信号的小波重构. 根据小波分解的第 $ N $层的低频系数和经过量化处理后的第1层到第 $ N $层的高频系数,进行信号的小波重构.

时间序列事件中同类事件通常具有相同的特征规律,但由于事件发生的位置及强度都不相同,感知到的事件数据均不在同一尺度下. 因此,使用时间序列归一化公式,使数据各个特征维度对目标函数的影响权重一致. 数据归一化公式如下:

$ x' = \frac{{x - {x_{\min }}}}{{{x_{\max }} - {x_{\min }}}} . $

式中: $ x' $为归一化结果, $ x $为待归一化数据, $ {x_{\min }} $为时间序列数据中的最小值, $ {x_{\max }} $为时间序列数据中的最大值. 通过数据归一化转换,将所有数据规格化为[0,1.0].

2.2. 基于Gram矩阵的时间域图像转换

由于时间序列存在时序性,按照时间先后顺序呈现不同的规律分布. 时间序列的时序性是决定其分类类别的重要属性. 因此,引入Gram矩阵进行时间域图像转换,在保留时间序列时序性的同时,无损地将时间序列片段转换为 $ N\times N $的二维矩阵.

Gram矩阵是由每一对向量的内积按如下形式构成的矩阵:

$ \boldsymbol{G}=\left[\begin{array}{cccc} < {u}_{1},{v}_{1} > & < {u}_{1},{v}_{2} > & \cdots& < {u}_{1},{v}_{n} > \\ < {u}_{2},{v}_{1} > & < {u}_{2},{v}_{2} > & \cdots& < {u}_{2},{v}_{n} > \\ \vdots& \vdots& {}& \vdots\\ < {u}_{n},{v}_{1} > & < {u}_{n},{v}_{2} > & \cdots& < {u}_{n},{v}_{n} > \end{array}\right] . $

式中: $ < {u_i},{v_j} > $为内积结果, $ {u_i}、{v_j} $均为标量. 通过矩阵 $ \boldsymbol{G} $将时间序列 $T = \{ {t_1},{t_2},{t_3},\cdots,{t_n}\}$变换为

$ {\boldsymbol{G}}_{{\rm{t}}}=\left[\begin{array}{cccc} < {t}_{1},{t}_{1} > & < {t}_{1},{t}_{2} > & \cdots& < {t}_{1},{t}_{n} > \\ < {t}_{2},{t}_{1} > & < {t}_{2},{t}_{2} > & \cdots& < {t}_{2},{t}_{n} > \\ \vdots& \vdots&{}& \vdots\\ < {t}_{n},{t}_{1} > & < {t}_{n},{t}_{2} > & \cdots& < {t}_{n},{t}_{n} > \end{array}\right] . $

式中: ${\boldsymbol{G}}_{{\rm{t}}}$为变换后的时间序列矩阵, $ < {t}_{i},{t}_{j} > $为时间序列中时间序列点积对. 由于时间序列 $ T $是一维的,而在直角坐标系下, $ < {t}_{i},{t}_{j} > $点积对计算需要横坐标和纵坐标二维信息. 因此,为了保留时间序列的时序性,采用极坐标系计算时间序列的点积对. 由式(1)将时间序列 $T = \{ {t_1},{t_2},{t_3},\cdots,{t_n}\}$进行归一化,得到结果为 $T' = \{ {t_1'},{t_2'}, {t_3'},\cdots, {t_n'}\}$. 其中, ${t_1'},{t_2'},{t_3'},\cdots,{t_n'}$均为[0,1.0]的数值. 如图1所示为经过归一化后得到的某个时间序列片段 $ T' = \{ 1.0,0.8, 0.5,0.6,0.3\} $,其中t为时间,Tv为阈值.

图 1

图 1   时间序列示意图

Fig.1   Schematic diagram of time series


对时间序列 $ T' $进行极坐标编码:

$ {\theta _i} = \arccos\; ({t_i'}) \text{,} $

$ {r_i} = i/n . $

式中: $ {t_i'} $为归一化后时间序列的点, $ i $为时间序列中的时间戳, $ {\theta _i} $为极坐标系下时间序列某点的角度, $ {r_i} $为极坐标系下时间序列某点的半径. 通过式(4)、(5)把时间序列上的每一点转换为角度和半径表示.

图2所示为图1$ T' $的极坐标编码. 例如,对0.5进行编码,其过程如下:根据式(4)可得 $ \arccos\; 0.5 = {60^ \circ } $,此时,式(5)中 $ i = 3 $$ N = 5 $,半径为0.6,极坐标中点 $ (0.6,{60^ \circ }) $即为所求. 由式(5)和图2可得,随着时间的增加,点半径越来越大,逐渐远离圆心. 极坐标编码用半径的增加完全保留时间序列的时序性,用角度变化表示原时间序列的数值变化. 因此,使用时间序列点对极坐标角度关系重构Gram矩阵:

图 2

图 2   时间序列极坐标示意图

Fig.2   Schematic diagram of time series polar coordinates


$ {\boldsymbol{G}}_{{\rm{t}}}=\left[\begin{array}{cccc}{\cos}\;({\theta }_{1}+{\theta }_{1})& {\cos}\;({\theta }_{1}+{\theta }_{2})& \cdots & {\cos}\;({\theta }_{1}+{\theta }_{n})\\ {\cos}\;({\theta }_{2}+{\theta }_{1})& {\cos}\;({\theta }_{2}+{\theta }_{2})&\cdots & {\cos}\;({\theta }_{2}+{\theta }_{n})\\ \vdots& \vdots& {}& \vdots\\ {\cos}\;({\theta }_{n}+{\theta }_{1})& {\cos}\;({\theta }_{n}+{\theta }_{2})& \cdots & {\cos}\;({\theta }_{n}+{\theta }_{n})\end{array}\right] . $

$ i = j $时,构成 ${\boldsymbol{G}}_{{\rm{t}}}$矩阵的对角线 $ \cos \;({\theta _i}+{\theta _i}) = $ $2{t_i}^2 - 1 $${\boldsymbol{G}}_{{\rm{t}}}$矩阵的对角线按照 ${t_1},{t_2},{t_3},\cdots, {t_n}$的顺序依次排列. 随着Gram矩阵位置从左上角到右下角的移动,时间序列数值被依次排入矩阵,保留了时间序列的时间依赖性,时间维度被编码到矩阵的几何结构中. 矩阵的每一个值相当于图像的像素点,通过Gram矩阵变换将每段时间序列转化为一张时间域图像. 如图3所示为正弦函数形式的时间序列矩阵变换后得到的时间域图像.

图 3

图 3   时间域图像示意图

Fig.3   Time domain image diagram


3. 时间域图像的T-CNN分类方法

将时间序列转化为Gram时间域图像,之后将其作为输入矩阵输进卷积神经网络中进行分类. 针对卷积神经网络存在卷积层计算复杂、训练速度慢的问题[26],提出基于Toeplitz矩阵乘积的方法来替换卷积层的卷积运算,并在损失函数中引入Triplet网络思想提高分类的效率和准确性.

3.1. 基于Toeplitz矩阵乘积的卷积运算

传统卷积运算如图4左侧所示,其中深色的方块代表卷积核矩阵,当卷积时,卷积核在待卷积图像上按设定步长依次移动,与卷积核重和的图像部分,相应进行乘积计算,直到卷积核遍历完整个图像,得到的矩阵即为卷积结果,计算复杂度极高. 针对该问题,引入Toeplitz矩阵乘积来替换卷积运算.

图 4

图 4   Toeplitz矩阵转换过程示意图

Fig.4   Schematic diagram of Toeplitz matrix transformation process


定义3  Toeplitz矩阵. 每条自左上至右下的斜线上的元素相同的矩阵为Toeplitz矩阵,具有 ${{A}}_{i,j}={{A}}_{i+1,j+1}={a}_{i-j}$性质. 矩阵 $ {\boldsymbol{A}} $表达式如下:

$ \boldsymbol{A}=\left[\begin{array}{cccccc}{a}_{0}& {a}_{-1}& {a}_{-2}& \cdots& \cdots& {a}_{-(n-1)}\\ {a}_{1}& {a}_{0}& {a}_{-1}& \ddots & & \vdots\\ {a}_{2}& {a}_{1}& \ddots & \ddots & \ddots & \vdots\\ \vdots& \ddots & \ddots & \ddots & {a}_{-1}& {a}_{-2}\\ \vdots& & \ddots & {a}_{1}& {a}_{0}& {a}_{-1}\\ {a}_{n-1}& \cdots& \cdots& {a}_{2}& {a}_{1}& {a}_{0}\end{array}\right] . $

图4所示为Toeplitz矩阵转换过程示意图. 把卷积核矩阵按输入图像的行序依次展开,与输入图像重合部分卷积核直接保留,其他部分用零填充,卷积核每按步长移动一次得到新的卷积核展开矩阵,这些矩阵共同构成组合矩阵,即Toeplitz矩阵. 将输入图像按行序依次展开为列向量,Toeplitz矩阵的每行与列向量的乘积就等价于原始的一次卷积核卷积,使Toeplitz矩阵的乘积替换卷积运算.

3.1.1. Toeplitz卷积核矩阵构建

要将卷积计算替换为Toeplitz矩阵乘积的运算,首先须将卷积核矩阵H构建为Toeplitz卷积核矩阵Ht. 给出任意卷积核矩阵H

$ \boldsymbol{H}=\left[\begin{array}{cccc}{h}_{11}& {h}_{12}& \cdots & {h}_{1D}\\ {h}_{21}& {h}_{22}& \cdots & {h}_{2D}\\ \vdots& \vdots& {}& \vdots\\ {h}_{C1}& {h}_{C2}& \cdots & {h}_{CD}\end{array}\right] , $

其对应的Toeplitz卷积核矩阵构建步骤如下.

1) 将卷积核矩阵的每一行元素生成一个小Toeplitz矩阵,卷积核矩阵尺寸为 $ C \times D $,将卷积核矩阵 $ \boldsymbol{H} $分成C个Toeplitz矩阵,分别为 ${\boldsymbol{H}}_{0},{\boldsymbol{H}}_{1},{\boldsymbol{H}}_{2},{\boldsymbol{H}}_{3},\cdots,{\boldsymbol{H}}_{c-1}$. 其中 $ ,{\boldsymbol{H}}_{0} $为将 $ \boldsymbol{H} $的第1行第1列元素 $ {h_{11}} $进行零插值,插入零的个数为卷积核矩阵 $ \boldsymbol{H} $列数 $ D $减1,插值后结果作为 $ {\boldsymbol{H}}_{0} $的第1行. 然后对 $ {h_{12}} $进行插值作为 $ {\boldsymbol{H}}_{0} $的第2行,按照Toeplitz矩阵的性质进行插值,直至形成 $ 2 D - 1 $行后结束 $ {\boldsymbol{H}}_{0} $构建. 依次类推, $ {\boldsymbol{H}}_{i} $为对 $ \boldsymbol{H} $的第 $ i - 1 $行元素进行插值后得到的矩阵. 例如,卷积核矩阵 $ \boldsymbol{H}=\left[\begin{array}{cc}1& 2\\ 3& 4\end{array}\right] $,则 $ \boldsymbol{H} $分为2个矩阵 $ {\boldsymbol{H}}_{0}= \left[\begin{array}{cc}1& 0\\ 2& 1\\ 0& 2\end{array}\right] $$ {\boldsymbol{H}}_{1}=\left[\begin{array}{cc}3& 0\\ 4& 3\\ 0& 4\end{array}\right] $.

2) 将步骤1)中得到 $ C $个小Toeplitz矩阵按如下公式构成大的Toeplitz矩阵 ${\boldsymbol{H}}_{{\rm{t}}}$

$ {\boldsymbol{H}}_{{\rm{t}}}=\left[\begin{array}{ccccc}{\boldsymbol{H}}_{0}& {\boldsymbol{0}}& \cdots& {\boldsymbol{0}}& {\boldsymbol{0}}\\ {\boldsymbol{H}}_{1}& {\boldsymbol{H}}_{0}& \ddots & \vdots& \vdots\\ {\boldsymbol{H}}_{2}& {\boldsymbol{H}}_{1}& \ddots & {\boldsymbol{0}}& {\boldsymbol{0}}\\ \vdots& {\boldsymbol{H}}_{2}& \ddots & {\boldsymbol{H}}_{0}& {\boldsymbol{0}}\\ {\boldsymbol{H}}_{c-2}& \vdots& \ddots & {\boldsymbol{H}}_{1}& {\boldsymbol{H}}_{0}\\ {\boldsymbol{H}}_{c-1}& {\boldsymbol{H}}_{c-2}& \vdots& {\boldsymbol{H}}_{2}& {\boldsymbol{H}}_{1}\\ {\boldsymbol{0}}& {\boldsymbol{H}}_{c-1}& \ddots & \vdots& {\boldsymbol{H}}_{2}\\ {\boldsymbol{0}}& {\boldsymbol{0}}& \ddots & {\boldsymbol{H}}_{c-2}& \vdots\\ \vdots& \vdots& \ddots& {\boldsymbol{H}}_{c-1}& {\boldsymbol{H}}_{c-2}\\ {\boldsymbol{0}}& {\boldsymbol{0}}& \cdots & {\boldsymbol{0}} & {\boldsymbol{H}}_{c-1}\end{array}\right] . $

步骤1)中举的例子由式(9)得到 ${\boldsymbol{H}}_{{\rm{t}}} = \left[ \begin{array}{cc}{\boldsymbol{H}}_{0}& {\boldsymbol{0}}\\ {\boldsymbol{H}}_{1}& {\boldsymbol{H}}_{0}\\ {\boldsymbol{0}}& {\boldsymbol{H}}_{1}\end{array} \right],$其中0表示尺寸为 $ 3 \times 2 $的零矩阵.

3.1.2. Toeplitz矩阵的卷积运算

由3.1.1得到Toeplitz卷积核矩阵 ${\boldsymbol{H}}_{{\rm{t}}}$之后,使用如下公式将传统卷积计算替换为基于Toeplitz矩阵乘积的卷积运算:

$ \boldsymbol{X}*\boldsymbol{H}={\boldsymbol{H}}_{{\rm{t}}}\times {\boldsymbol{X}}_{{\rm{T}}} . $

式中: $\boldsymbol{X}=\left[\begin{array}{cccc}{x}_{11}& {x}_{12}& \cdots & {x}_{1B}\\ {x}_{21}& {x}_{22}& \cdots & {x}_{2B}\\ \vdots & \vdots &{} & \vdots \\ {x}_{A1}& {x}_{A2}& \cdots & {x}_{AB}\end{array}\right]$为待卷积矩阵, $\boldsymbol{H}=\left[\begin{array}{cccc}{h}_{11}& {h}_{12}& \cdots & {h}_{1D}\\ {h}_{21}& {h}_{22}& \cdots & {h}_{2D}\\ \vdots & \vdots & {} & \vdots \\ {h}_{C1}& {h}_{C2}& \cdots & {h}_{CD}\end{array}\right]$为卷积核, ${\boldsymbol{X}}_{{\rm{T}}}$$\boldsymbol{X}$的所有元素按行的顺序依次排列得到的列向量. 采用Full卷积方式,将待卷积矩阵四周都进行零填充,结果返回卷积以后的全部数据,卷积结果矩阵的行数为 $ M = A+C - 1 $,列数为 $ N = B+D - 1 $.

例如, $\boldsymbol{X}=\left[\begin{array}{cc}5& 6\\ 7& 8\end{array}\right]$,则 ${\boldsymbol{X}}_{{\rm{T}}}={\left[5, 6, 7, 8\right]}^{\rm{T}}$,采用卷积计算方式,可以得到

基于Toeplitz矩阵的卷积运算可以得到

再按 $ M = A+C - 1 = 3 $$ N = B+D - 1 = 3 $,将计算得出的列向量改写为 $ 3 \times 3 $的矩阵,发现与卷积计算得到的结果相同.

通过Toeplitz矩阵的乘积可以有效地替换卷积运算. 在时间复杂度方面,输入图像尺寸为 $ A \times B $,卷积核尺寸为 $ C \times D $,卷积运算需要卷积核不断遍历图像,计算 $ A \times B \times C \times D $次乘法. 在使用Toeplitz矩阵的乘积计算时,只须计算一次矩阵相乘,由图4可得,矩阵的0元素不进行计算,每行实际计算 $ C \times D $次乘法,共有卷积核遍历次数行,总进行约 $ A \times B \times C \times D $次乘法计算. 因此,在单次卷积计算时,2种方法的计算量大致相同,但在传统卷积中每次有新的图像输入时,须进行大量移位操作,增加运算时间,而Toeplitz矩阵的卷积运算在具体分类时,只须依据给定卷积核构建一次对应的Toeplitz矩阵,就可以直接对输入的所有图像进行矩阵乘积计算,得到卷积结果,对于有大量样本集和测试集的数据集可以较大幅度减少卷积操作的时间.

3.2. T-CNN模型分类

CNN网络的全连接层在进行收敛运算时,须使用损失函数进行约束. 在训练模型的损失函数中引入Triplet网络思想,构建T-CNN模型进行时间序列分类.

设由 $ m $个时间序列样本组成的样本集为 $\{ ({x^{(1)}},{{\boldsymbol{y}}^{(1)}}),({x^{(2)}},{{\boldsymbol{y}}^{(2)}}),\cdots,({x^{(m)}},{{\boldsymbol{y}}^{(m)}})\}$,将此样本集包含的样本划分为 $ n $类, $ {{\boldsymbol{y}}^{(i)}} $表示 $ {x^{(i)}} $的期望输出,CNN的损失函数如下:

$ R({\boldsymbol{\omega}} ,{\boldsymbol{b}}) = \frac{1}{m}\sum\limits_{i = 1}^m {(\frac{1}{2}||{{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}({x^i}) - {{\boldsymbol{y}}^{(i)}}|{|^2})} . $

式中: $ {\boldsymbol{\omega}} $为每个神经元的权值[27]$ {\boldsymbol{b}} $为偏置量, $ {{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}({x^i}) $为样本实际输出. CNN模型通过训练不断反向调节参数 $ {\boldsymbol{\omega}} $$ {\boldsymbol{b}} $,使 $ R({\boldsymbol{\omega}} ,{\boldsymbol{b}}) $达到最小.

CNN使用梯度下降法对 $ R({\boldsymbol{\omega}} ,{\boldsymbol{b}}) $进行调参,具体如下:

$ {\omega _{ij}} = {\omega _{ij}} - a\frac{\partial }{{\partial {\omega _{ij}}}}R({\boldsymbol{\omega}} ,{\boldsymbol{b}}) \text{,} $

$ {b_{ij}} = {b_{ij}} - a\frac{\partial }{{\partial {b_{ij}}}}R({\boldsymbol{\omega}} ,{\boldsymbol{b}}) . $

式中: $ a $为学习率. 为了提高分类准确性,在损失函数中引入Triplet 网络思想进行约束,提出基于Triplet损失函数的T-CNN模型. T-CNN模型思想是每次输入3张时间域图像,其中有2张属于同类,1张属于其他类别. T-CNN模型通过训练得到时间域图像的特征,可以得到同类的2张图像特征的差异函数 $ {L_1} $和不同类的2张图像特征的差异函数 $ {L_2} $,使用 $ {L_1} $$ {L_2} $继续调整T-CNN模型的参数. $ {L_1} $$ {L_2} $表达式如下:

$ {L_1} = \frac{1}{2}||{{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{({l_1})} - {{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{({l_2})}|{|^2} \text{,} $

$ {L_2} = \frac{1}{2}\min \;||{{\boldsymbol{n}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{(l)} - {{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{({l_i})}|{|^2};\;i = 1,2 . $

式中: $ {{\boldsymbol{p}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{({l_i})} $为同类图像的输出值, $ {{\boldsymbol{n}}_{{\boldsymbol{\omega}} ,{\boldsymbol{b}}}}^{(l)} $为不同类图像的输出值.

由式(14)和(15)可以看出,在每次反向迭代中, $ {L_1} $会使同类的特征差异变小, $ {L_2} $会使不同类的特征差异变大. 在此基础上,提出基于Triplet的损失函数:

$ L({\boldsymbol{\omega}} ,{\boldsymbol{b}}) = R({\boldsymbol{\omega}} ,{\boldsymbol{b}})+\alpha {L_1} - \beta {L_2} . $

式中: $ \alpha 、\beta $为大于零的系数. 从而使用BP算法得到新的每一层的残差:

$ {\omega _{ij}} = {\omega _{ij}} - a\frac{\partial }{{\partial {\omega _{ij}}}}L({\boldsymbol{\omega}} ,{\boldsymbol{b}}) \text{,} $

$ {b_{ij}} = {b_{ij}} - a\frac{\partial }{{\partial {b_{ij}}}}L({\boldsymbol{\omega}} ,{\boldsymbol{b}}) . $

在基于Triplet网络的T-CNN模型的损失函数中,加入同类间特征差异函数和不同类间特征差异函数,使权值调整的过程参数更快提取差异较大的特征. $ L({\boldsymbol{\omega}} ,{\boldsymbol{b}}) $的偏导数可以使反向传播残差计算得到新的参数 $ {\boldsymbol{\omega}} $$ {\boldsymbol{b}} $,每一次迭代就更倾向于梯度下降方向,能够更快地让模型达到收敛,提高分类效率. 同时由于在损失函数中加入同类和不同类的差异函数,考虑了样本之间类别的差异,在实际训练时同类样本的特征提取更为精确,同类样本间距离越来越近,不同类别样本间距离越来越大,能够更清晰地划分不同类间的界限,提高分类的准确性.

4. 实验分析

实验数据集采用矿山微震大数据平台产生的10万条时间序列数据,感知器采样频率为1000条/s. 数据集包含3种类型的矿山微震信号的时间序列事件波形. 训练集规模占总数据集的40%,测试集规模占总数据集的60%,模型训练框架为Tensorflow,实验软硬件环境如表1所示.

表 1   实验软硬件环境

Tab.1  Software and hardware environment

环境 配置
CPU Intel Core(TM)i7-7500U
内存 8 GB
硬盘容量 1 TB
操作系统 Windows 8.1 (64bit)
编程语言 Java
JDK版本 1.7.0_45

新窗口打开| 下载CSV


为了防止局部过收敛,卷积神经网络结构设置2层卷积层. 卷积层1采用大小为 $ 5 \times 5 $的卷积核,最大池化的窗口大小为 $ 3 \times 3 $. 卷积层2采用大小为 $ 3 \times 3 $的卷积核,最大池化的窗口大小为 $ 2 \times 2 $. 卷积层2之后是一个标准的全连接层,此层的激活函数使用ReLU,该激活函数计算快速,使CNN模型能较快收敛,损失函数采用基于Triplet的损失函数. 时间域图像经过T-CNN卷积神经网络输出结果 $ p = \{ {p_1},{p_2},{p_3}\} $$ {p_1}、{p_2}、{p_3} $分别表示数据集中3种类型的概率. 使用 $ {\rm{type}} = S(\max\;(p)) $判断类别,其中函数 $ S $为一个阈值函数,反复试验后定阈值为0.8. 当 $ \max\;(p) $大于函数 $S$设定的阈值时才输出目标类别. 为了使实验结果更加可靠,在实验过程中采用了10折交叉验证,最终结果取10次的平均值.

4.1. 模型迭代次数对比

T-CNN模型通过不断前向传导调节模型至最优状态,其中主要可调参数为学习率和迭代次数. 此实验过程中设置学习率为0.005,调节迭代次数. 如图5所示为不同迭代次数下时间域图像分类准确性的变化,准确率为分类正确的样本数占总体样本数的比例. 图中,It为迭代次数,Acc为分类准确率. 可以看出,当迭代次数在40次以内时,分类总准确性提高较快;当迭代次数为40~70次时,分类总准确性提高幅度变缓;当迭代次数为70次时,分类总准确性最高,约为93%;当迭代次数大于70次时,分类总准确性下降. 由此得知,迭代次数的增加在一定范围内能提高分类精度,但超过范围后会导致模型过拟合,分类准确性下降.

图 5

图 5   T-CNN模型迭代次数结果图

Fig.5   Result diagram of T-CNN model iteration times


4.2. 分类准确率对比

图6所示为分类模型分类准确率对比图. 图中,Dq为数据量. 对比方法为符号化聚合近似SAX方法[15]、趋势转折点TTP方法[16]、时间域距离TDD方法[17]、CNN模型方法[20]、门控机制的LSTM模型[21]和多头自注意力机制的Transformer模型[22]. 其中,SAX采用每5个数据点聚合成一个符号;TTP选取包括最大值在内的最大3个转折点和包括最小值在内的最小3个转折点;TDD设定距离阈值为0.5;CNN模型结构和参数设置和T-CNN模型相同;LSTM隐藏层数目为512;Transformer采用默认设置. 后续实验都采用上述实验参数设置. 由图6可知,随着数据量的增加,7种方法分类准确率都在提高后趋于平缓. T-CNN模型由于使用Gram矩阵将时间序列转换为时间域图像,可以完整的保留时间序列的属性,分类准确率要明显好于其他方法.

图 6

图 6   不同分类模型分类准确率对比图

Fig.6   Comparison of classification accuracy of different classification models


4.3. 分类精确率对比

精确率为预测为某类别的样本数中真正为此类样本的占比,表达式如下:

$ {P_i} = {n_{ii}}\left/{\sum\limits_{j = 1}^{{n_{\rm{c}}}} {{n_{ji}}}}\right. . $

式中: $ {n_{ij}} $为类别 $ i $预测为第 $ j $类的样本数, $ {n_{\rm{c}}} $为样本类别数.

将求出各类别的精确率 $ {P_i} $求平均值,得到分类的平均精确率P. 如图7所示为T-CNN、SAX[15]、TTP[16]、TDD[17]、CNN[20]、LSTM[21]和Transformer[22]7种方法的分类精确率对比图. 可以看出,随着数据量的增加,各模型分类精确率随之增加. T-CNN模型由于改进损失函数,分类精确率要明显好于其他方法.

图 7

图 7   不同分类模型分类精确率对比图

Fig.7   Comparison of classification precision of different classification models


4.4. 分类查全率对比

查全率为某一类别样本中被检测出来的占比:

$ {R_i} = {n_{ii}}\left/{\sum\limits_{j = 1}^{{n_{\rm{c}}}} {{n_{ij}}}}\right. . $

将求出各类别的查全率 $ {R_i} $求平均值,得到分类的平均查全率R. 如图8所示为T-CNN、SAX[15]、TTP[16]、TDD[17]、CNN[20]、LSTM[21]和Transformer[22]7种方法分类查全率的对比图. 可以看出,随着数据量的增加,各方法分类查全率随之增加. T-CNN模型由于Gram的无损转化机制,且改进损失函数,分类查全率要明显好于其他方法.

图 8

图 8   不同分类模型分类查全率对比图

Fig.8   Comparison of classification recall of different classification models


4.5. F1值对比

F1值是精确率和查全率的调和平均:

$ {{\rm{F}}1}_{{(i)}} = 2 \times \frac{{{P_i} {R_i}}}{{{P_i}+{R_i}}} . $

将求出各类别的 $ {{\rm{F}}1}_{{(i)}} $求平均值,得到分类的平均F1值. 如图9所示为T-CNN、SAX[15]、TTP[16]、TDD[17]、CNN[20]、LSTM[21]和Transformer[22]7种方法的F1值对比图. 可以看出,随着数据量的增加,各方法分类的F1值随之增加. 由于改进损失函数,T-CNN模型的分类查全率要明显好于其他方法的.

图 9

图 9   不同分类模型F1值对比图

Fig.9   F1 comparison of different classification models


4.6. 分类效率对比

图10所示为T-CNN、SAX[15]、TTP[16]、TDD[17]、CNN[20]、LSTM[21]和Transformer[22]7种方法对单个时间序列进行分类的效率对比图. 图中,tc为分类时间. 可以看出,随着数据量的增加,T-CNN和CNN模型加快收敛速度,分类时间会有所减少. SAX采用聚合思想,在对时间序列分段后,变为字母序列再分类,牺牲了分类的准确性,因此分类速度最快. TTP须寻找极值点和转折点,比SAX分类慢. TDD要对所有数据点进行距离计算,分类时间比SAX和TTP要多. CNN模型由于卷积运算和参数不断迭代计算,分类速率最慢. 而T-CNN模型在卷积层使用Toeplitz矩阵计算,并改进损失函数,收敛速率加快,相对CNN模型减少了近50%的分类时间.

图 10

图 10   不同分类模型分类效率对比图

Fig.10   Comparison of classification efficiency of different classification models


4.7. Toeplitz卷积与传统卷积运行时间对比

对基于Toeplitz矩阵乘积卷积和传统卷积进行运算时间对比,实验过程中取 $ 3\times 3 $尺寸卷积核计算卷积,将时间序列长度从10到100依次截取,基于Gram矩阵转化后的时间域图像尺寸从 $ 10\times 10 $$ 100\times 100 $. Toeplitz卷积和传统卷积对不同尺寸的时间域图像卷积的运行时间对比图如图11所示. 图中,TSL为选取的时间序列长度,tr为运行时间. 可以看出,在时间域图像尺寸为10~40时,传统卷积和Toeplitz卷积的运行时间均变化较为平缓,当时间域图像尺寸大于40后,2种卷积的运算时间增加变快. 整体上,在图像尺寸为 $ 10\times 10 $~ $ 100\times 100 $时,Toeplitz卷积运算的时间小于传统卷积运算的时间. 因此,在卷积神经网络分类处理时,使用Toeplitz卷积替换传统卷积运算能加快模型的训练速度.

图 11

图 11   Toeplitz卷积与传统卷积运行时间对比图

Fig.11   Comparison of Toeplitz convolution and traditional convolution running time


5. 结 语

基于Gram矩阵的T-CNN时间序列分类方法对时间序列用小波阈值去噪后,使用Gram矩阵将时间序列无损转换为时间域图像;将时间域图像作为输入矩阵输入到T-CNN模型进行分类,在卷积层中引入Toeplitz卷积核矩阵,用2个矩阵的乘积替换卷积运算;在全连接层引入Triplet网络思想中同类和不同类图片的输出差值来改进CNN的损失函数. 实验表明,基于Gram矩阵的T-CNN时间序列分类方法在分类的准确率、精确率、查全率、F1值上均优于现有方法. 但在基于Gram矩阵转化时间序列进行分类时,须对时间序列进行分段截取处理,下一步将考虑在连续时间序列流上进行相似的分类方法.

参考文献

ANE B, ANGEL C, USUE M, et al

A review on outlier/anomaly detection in time series data

[J]. ACM Computing Surveys, 2021, 54 (3): 1- 33

[本文引用: 1]

杜晓昕, 王浩, 崔连和, 等

基于聚类和探测精英引导的蜻蜓算法

[J]. 浙江大学学报:工学版, 2022, 56 (5): 977- 986

[本文引用: 1]

DU Xiao-qin, WANG Hao, CUI Lian-he, et al

Dragonfly algorithm based on clustering and detection elite guidance

[J]. Journal of Zhejiang University: Engineering Science, 2022, 56 (5): 977- 986

[本文引用: 1]

HOUSHANG D, GEORGIANA I, DIEGO F S, et al

Guest editorial for special issue on time series classification

[J]. IEEE/CAA Journal of Automatica Sinica, 2019, 6 (6): 1291- 1292

DOI:10.1109/JAS.2019.1911741      [本文引用: 1]

KABYLDA A

Future of oil and gas trade of Kazakhstan in the European Union context: application of time series analysis

[J]. Visegrad Journal on Bioeconomy and Sustainable Development, 2020, 9 (2): 55- 60

DOI:10.2478/vjbsd-2020-0011      [本文引用: 1]

LUO H, SUN K X, WANG J L, et al

Multistage identification method for real-time abnormal events of streaming data

[J]. International Journal of Distributed Sensor Networks, 2019, 15 (12): 12119- 12132

[本文引用: 1]

HAMDI Y, REEM A D

A novel trend based SAX reduction technique for time series

[J]. Expert Systems with Applications, 2019, 130: 113- 123

DOI:10.1016/j.eswa.2019.04.026      [本文引用: 1]

HUGUES T, MINA B, CHRISTIAN L, et al

InterpretTime: a new approach for the systematic evaluation of neural-network interpretability in time series classification

[J]. Computing Research Repository, 2022, 150: 150- 165

[本文引用: 1]

周飞燕, 金林鹏, 董军

卷积神经网络研究综述

[J]. 计算机学报, 2017, 40 (6): 1229- 1251

DOI:10.11897/SP.J.1016.2017.01229      [本文引用: 1]

ZHOU Fei-yan, JIN Lin-peng, DONG Jun

Review of convolutional neural network

[J]. Chinese Journal of Computers, 2017, 40 (6): 1229- 1251

DOI:10.11897/SP.J.1016.2017.01229      [本文引用: 1]

FERNAU H, KUPPUSAMY L, RAMAN I

On the computational completeness of matrix simple semi-conditional grammars

[J]. Information and Computation, 2021, 1 (2): 104688- 104705

[本文引用: 1]

WU B, DRIGNEI D

Emulated order identification for models of big time series data

[J]. Statistical Analysis and Data Mining:the ASA Data Science Journal, 2021, 14 (2): 201- 212

DOI:10.1002/sam.11504      [本文引用: 1]

ZHAO J P, GUO W W, ZHANG Z H, et al

A coupled convolutional neural network for small and densely clustered ship detection in SAR images

[J]. Science China, 2019, 62 (4): 111- 126

[本文引用: 1]

姜山, 丁治明, 朱美玲, 等

面向时空图建模的图小波卷积神经网络模型

[J]. 软件学报, 2021, 32 (3): 726- 741

DOI:10.13328/j.cnki.jos.006170      [本文引用: 1]

JIANG Shan, DING Zhi-ming, ZHU Mei-ling, et al

Graph wavelet convolutional neural network for spatiotemporal graph modeling

[J]. Journal of Software, 2021, 32 (3): 726- 741

DOI:10.13328/j.cnki.jos.006170      [本文引用: 1]

FERRARI P, BARAKITIS N, SERRA A

Asymptotic spectra of large matrices coming from the symmetrization of Toeplitz structure functions and applications to preconditioning

[J]. Numerical Linear Algebra with Applications, 2021, 28 (1): 13785- 13801

[本文引用: 1]

WANG Z, LIU T

Two-stage method based on triplet margin loss for pig face recognition

[J]. Computers and Electronics in Agriculture, 2022, 194: 106737- 106750

DOI:10.1016/j.compag.2022.106737      [本文引用: 1]

FANG H, WANG Y W, XIAO J W, et al

A new mining framework with piecewise symbolic spatial clustering

[J]. Applied Energy, 2021, 298 (6): 117226- 117235

[本文引用: 6]

EL-SHORBAGY M A, ESLAMI F, IBRAHIM M, et al

Numerical investigation of mixed convection of nanofluid flow in a trapezoidal channel with different aspect ratios in the presence of porous medium

[J]. Case Studies in Thermal Engineering, 2021, (3): 100977- 100992

[本文引用: 6]

VIANNA P, JUNIOR G M

Time-domain distance protection of transmission lines based on the conic section general equation

[J]. Electric Power Systems Research, 2022, 205: 107740- 107752

DOI:10.1016/j.jpgr.2021.107740      [本文引用: 6]

CHENG L F

Sparse multi-output Gaussian processes for online medical time series prediction

[J]. BMC Medical Informatics and Decision Making, 2020, 20 (1): 152- 157

DOI:10.1186/s12911-020-1069-4      [本文引用: 1]

赵超, 王腾江, 刘士军, 等

融合选择提取与子类聚类的快速Shapelet发现算法

[J]. 软件学报, 2020, 31 (3): 763- 777

DOI:10.13328/j.cnki.jos.005912      [本文引用: 1]

ZHAO Chao, WANG Teng-jiang, LIU Shi-jun, et al

Fast Shapelet discovery algorithm combining selective extraction and subclass clustering

[J]. Journal of Software, 2020, 31 (3): 763- 777

DOI:10.13328/j.cnki.jos.005912      [本文引用: 1]

汪建梅, 彭云, 余晨钰

融合时间序列与卷积神经网络的网络谣言检测

[J]. 小型微型计算机系统, 2022, 43 (5): 1020- 1026

[本文引用: 6]

WANG Jian-mei, PENG Yun, YU Chen-yu

Network rumor detection combining time series and convolutional neural network

[J]. Journal of Chinese Computer Systems, 2022, 43 (5): 1020- 1026

[本文引用: 6]

KONG D, WANG S, PING P

State-of-health estimation and remaining useful life for lithium-ion battery based on deep learning with Bayesian hyperparameter optimization

[J]. International Journal of Energy Research, 2022, 46 (5): 6081- 6098

DOI:10.1002/er.7548      [本文引用: 6]

ZHOU K, WANG W, HU T, et al

Time series forecasting and classification models based on recurrent with attention mechanism and generative adversarial networks

[J]. Sensors, 2020, 20 (24): 7211- 7218

DOI:10.3390/s20247211      [本文引用: 6]

ANDAYANI F, THENG B L, TSUN M T, et al

Hybrid LSTM-transformer model for emotion recognition from speech audio files

[J]. IEEE Access, 2022, 10: 36018- 36027

DOI:10.1109/ACCESS.2022.3163856      [本文引用: 1]

MARION M, CATHERINE A, RICHARD K, et al

Time-series averaging using constrained dynamic time warping with tolerance

[J]. Pattern Recognition: the Journal of the Pattern Recognition Society, 2018, 74: 77- 89

DOI:10.1016/j.patcog.2017.08.015      [本文引用: 1]

FRANCISCO J B, JOSE M B

Distributed fast Shapelet transform: a big data time series classification algorithm

[J]. Information Sciences, 2019, 496: 451- 463

DOI:10.1016/j.ins.2018.10.028      [本文引用: 1]

CHEN W, SHI K

A deep learning framework for time series classification using relative position matrix and convolutional neural network

[J]. Neurocomputing, 2019, 359: 384- 394

DOI:10.1016/j.neucom.2019.06.032      [本文引用: 1]

闫贺, 黄佳, 李睿安, 等

基于改进快速区域卷积神经网络的视频SAR运动目标检测算法研究

[J]. 电子与信息学报, 2021, 43 (3): 615- 622

DOI:10.11999/JEIT200630      [本文引用: 1]

YAN He, HUANG Jia, LI Rui-an, et al

Research on video SAR moving target detection algorithm based on improved faster region-based CNN

[J]. Journal of Electronics and Information Technology, 2021, 43 (3): 615- 622

DOI:10.11999/JEIT200630      [本文引用: 1]

/