用于多元时间序列预测的图神经网络模型
Graph neural network model for multivariate time series forecasting
收稿日期: 2023-12-30
基金资助: |
|
Received: 2023-12-30
Fund supported: | 辽宁省应用基础研究计划资助项目(2023JH2/101600040);辽宁省教育厅基本科研资助项目(LJKMZ20221598). |
作者简介 About authors
张晗(1990—),男,讲师,博士,从事神经网络和表示学习研究.orcid.org/0000-0002-7923-7005.E-mail:
现有用于多元时序预测的图神经网络模型大多基于预定义图以静态的方式捕捉时序特征,缺少对于系统动态适应和对时序样本之间潜在动态关系的捕捉. 提出用于多元时序预测的图神经网络模型 (MTSGNN). 该模型在一个图学习模块中,采用数据驱动的方式学习时间序列数据的静态图和动态演化图,以捕捉时序样本之间的复杂关系. 通过图交互模块实现静态图和动态图之间的信息交互,并使用卷积运算提取交互信息中的依赖关系. 利用多层感知机对多元时序进行预测. 实验结果表明,所提模型在6个真实的多元时间序列数据集上的预测效果显著优于当前最先进的方法,并且具有参数量较小、运算速度较快的优点.
关键词:
Most of the existing graph neural network models for forecasting multivariate time series capture the time series characteristics in a static way based on predefined graphs, and may be lack of capturing the dynamic adaptation of the system and some potential dynamic relationships between time series samples. A graph neural network model for multivariate time series prediction (MTSGNN) was proposed. In a graph learning module, the static and dynamic evolution graphs of time series data were learned in a data-driven way to capture the complex relationships between time series samples. The information interaction between the static and dynamic graphs was realized by the graph interaction module, and the convolution operation was used to extract the dependency in the interaction information. A multi-layer perceptron was used to forecast the multivariate time series. Experimental results on six real multivariate time series datasets showed that the forecasting effect of the proposed model was significantly better than those of the current state-of-the-art methods, and it had the advantages of small parameter quantity and fast operation speed.
Keywords:
本文引用格式
张晗.
ZHANG Han.
多元时间序列预测在经济、地理、交通等众多领域都有着广泛的应用[1],该任务关键在于准确捕捉时序间的相互依赖关系和动态演化模式[2]. 在过去几年中,用于时序预测的机器学习算法得到了快速发展[3]. 深度学习方法由于具有较强捕获复杂模式和学习数据中非线性关系的能力,在多元时序预测上比传统机器学习方法表现出更好的性能[4]. 时序数据的一个重要特征是它们在时间上存在相互依赖性,即样本不是独立同分布的. 例如股票数据,今天的股票价格可能受昨天的封板影响[5]. 大多数基于机器学习和深度学习的多元时序预测方法,在训练时会将每个时序样本视为彼此独立的个体,忽略了样本之间的相互依赖关系,这严重影响了多元时序的预测效果[6].
近年来,图神经网络(graph neural network, GNN)凭借其强大的依赖关系处理能力,在时序建模方面受到越来越多的关注[7]. 目前,大多数基于GNN的方法都是通过构建预定义图的方式来挖掘时序之间的隐藏信息和相互关系的[8]. 例如,MTGNN[9]是第1个对多元时序预测使用GNN结构的模型(之前的相关论文都是将GNN用于单变量时序预测的). 然而,MTGNN必须在预定义好的图上才能发挥较好的效果. 但对于大多数多元时间序列,它们并没有明确的图结构. 一般来说,时序图中节点之间的关系通常须由领域专家所确定,这可能会由于引入主观因素而不能对时序之间的潜在联系准确建模[10]. 此外,预定义图的结构是固定的,并不适合用来描述时序之间的动态关系. 虽然可以利用时序信息动态推断时序关系,但显然单独使用动态图或者静态图不足以全面描述时序之间的关系[11].
综上所述,构建基于GNN的多元时序预测模型须解决以下2个关键问题:第一,如何同时捕捉时序之间存在的静态关系和动态关系,减少人为主观因素对图结构的影响;第二,如何对静态关系和动态关系的信息进行融合.
针对上述问题,本研究提出用于多元时间序列预测的图神经网络模型 (graph neural network for multivariate time series,MTSGNN). 首先建立一个图学习模块,采用数据驱动的方式,通过学习时序的静态图和动态图,自动发现并捕获时序数据中的静态和动态依赖关系;其次,在图交互模块中完成静态信息与动态信息的交互,使得2个图的结构信息相互收敛. 通过卷积运算分别提取静态图和动态图上的空间特征并拼接起来;最后,利用多层感知机(multi-layer perceptron, MLP)对多元时间序列进行预测.
1. 相关工作
ARIMA[12]是经典的处理时序数据的线性统计方法,但它不能较好地捕获时序数据中的非线性关系. 高斯过程[13] (Gaussian process, GP)虽然对平稳过程进行了强有力的假设,但不能很好地扩展到多元时间序列数据. 传统基于神经网络的时序预测方法大多采用循环神经网络(recurrent neural network, RNN)或卷积神经网络(convolutional neural network, CNN)及其变体来学习历史数据中的潜在特征,它们具有较好的处理高维数据的能力,但存在计算成本较高、难以学习长期依赖关系之类的缺点[14]. 此外,传统方法一般在处理每个时序样本时都是独立进行的,必然会忽略时序之间的内在联系,导致预测效果不佳[15]. 另外,注意力机制因具有自适应学习特征权重的能力,也常被用于时序建模;然而,它通常将时间和空间相关性分开建模,不能充分利用时序数据中存在的依赖关系[16].
图神经网络(graph neural network, GNN)是能对数据之间相互作用有效建模的模型,但大多数用于时序预测的GNN模型都假设已经存在一个关系明确的预定义图[17]. 例如,Wang等[18]利用多视图卷积网络对多种类型的时序关系图编码,并通过学习复杂的网络关系对时序数据进行准确预测. Tian等[19]利用股票价格的相关性构建时变股票关系图,并提出基于混合注意力的图神经网络来预测股票价格走势. 然而,预定义的静态网络无法模拟关系演化的动态模式,并可能会忽略对有效决策至关重要的隐藏交互信息;同时,上述方法的性能在很大程度上依赖于先验图的质量[20]. 为此,一些学者尝试利用历史时序信息对动态时序关系建模,从数据中发现最优的图结构. 例如,EvolveGCN[21]无须借助节点嵌入,仅通过使用递归神经网络演化图卷积网络(graph convolutional network, GCN)参数的方式捕获图序列中的动态性. MGAT[22]和FinGAT[23]基于图注意力网络(graph attention network, GAT)[24]推导时序数据中潜在的动态依赖关系. Z-GCNETs[25]提出时间感知的GCN,以跟踪数据的空间依赖关系,从而更好地对交通流量和比特币价格进行预测.
图 1
2. 模型介绍
Xt为每个样本
多元时间序列预测分为单步预测和多步预测. 给定历史时序数据
2.1. 图学习模块
2.1.1. 门控循环单元
长短期记忆(long short term memory, LSTM)网络和门控循环单元(gated recurrent unit, GRU)在捕捉长序列语义关联时,都能有效抑制传统RNN中存在的梯度消失或爆炸问题;并且,相对于LSTM,GRU参数量更少,训练速度更快,更适用于构建较大的网络[27]. 因此,使用GRU对时序的历史数据进行编码.
给定历史序列
式中:
2.1.2. 静态图学习
式中:
由于所学习到的图的平滑性和稀疏性对预测结果有重要影响[31],因此,在损失函数中引入图正则化(graph regularization, GR)项,并将其用于成对的输入以控制静态图的学习方向和质量. 给定输入
式中:第1项在于迫使相邻节点具有相似的特征,从而增强与节点
2.1.3. 动态图学习
通过静态图
式中:
2.2. 图交互模块
通过图交互模块对图学习模块中学习到的静态信息和动态信息进行融合,获得数据中更全面、准确和实用的信息. 对于用于时序预测的图学习模型来说,图中每个节点的未来信息既取决于其邻居节点的数量,也取决于其每个邻居节点的历史信息[32]. 因此,图交互模块中的信息融合应该使得每个节点能从其更重要的邻居节点获得更多的信息.
式中:函数
考虑到静态图的结构是固定的,而动态图的结构是可变的,因此,式(9)计算动态图中不同节点间的相关信息,并以此对静态图不同节点间连接强度(边权重)进行调整,从而在静态图结构不变的情况下,达到信息交互的目的. 动态图中不同节点之间的连接是可以动态变化的,并受到重要邻居节点的影响,因此,根据静态图排名前
首先,使用式(9),即
2.3. 时序预测
使用卷积运算,将最初抽取的特征
式中:
在对多元时序进行预测时,先将
式中:
在训练时,将
式中:
3. 实证研究
3.1. 数据集
如表1所示为在实验中使用的基准数据集的统计量. 表中,
表 1 基准数据集的统计量
Tab.1
任务 | 数据集 | |||||
多步预测 | METR-LA | 207 | 5 min | 12 | 12 | |
PEMS-BAY | 325 | 5 min | 12 | 12 | ||
单步预测 | Traffic | 862 | 1 h | 168 | 1 | |
Solar-Energy | 137 | 10 min | 168 | 1 | ||
Electricity | 321 | 1 h | 168 | 1 | ||
Exchange-Rate | 8 | 1 d | 168 | 1 |
3.1.1. 用于多步预测任务的数据集
按照Li等[33]的方式,将2个交通数据集METR-LA和PEMS-BAY按时间顺序,分别分为训练集(70%)、验证集(20%)和测试集(10%). 2个数据集信息分别如下. 1) METR-LA: 该数据集来自于洛杉矶大都会运输管理局,其包含了2012年3月—2012年6月洛杉矶县高速公路上207个线圈检测器测量的平均交通速度;2) PEMS-BAY: 该数据集来自于加州运输机构,其包含了湾区在2017年1月—2017年5月由325个传感器测量的平均交通速度.
在实验中,输入序列的长度为12,目标是同时预测未来一段时间(从
3.1.2. 用于单步预测任务的数据集
按照Lai等[34]的方式,按时间顺序将4个数据集分别分为训练集(60%)、验证集(20%)和测试集(20%). 4个数据集信息分别如下.
1) Traffic:来自于加州交通部,其包含了旧金山湾区高速公路2015—2016年862个传感器测量的道路占用率;
2) Solar-Energy:自于美国国家可再生能源实验室,其包含了2007年阿拉巴马州137个光伏电站的太阳能发电量;
3) Electricity:来自于加利福尼亚大学尔湾分校(University of California, Irvine, UCI)的机器学习存储库,其包含了321个客户2012年—2014年的用电量;
4) Exchange-Rate:包含了8个国家(澳大利亚、英国、加拿大、瑞士、中国、新西兰、新加坡和日本)1990—2016年的每日汇率.
在实验中,输入长度L为168的序列,单独训练每个模型预测未来l个时间步后,即第t + l时刻的单个观测值(实验中l的取值分别为3、6、12和24).
3.2. 评估指标
在多步预测实验中,使用平均绝对误差(mean absolute error, MAE)、平均绝对百分比误差(mean absolute percentage error, MAPE)和均方根误差(root mean squared error, RMSE)这3个评价指标. 在单步预测实验中,使用相对平方误差(relative squared error, RSE)和相关系数(correlation coefficient, CORR)来衡量模型的预测性能. MAE、MAPE、RMSE和RSE越小说明模型的效果越好;CORR越高,表明模型的效果越好. 上述5个评估指标的表达式分别如下:
式中:
3.3. 参数设置
所有模型均通过PyTorch框架实现,并使用Adam优化器(学习率为
3.4. 基准模型
3.4.1. 用于多步预测任务的基准模型
1) Vector Auto-Regression (VAR)[35]:用于捕捉交通序列之间相关性的模型;
2) DSANet[36]:基于CNN网络和自注意力机制的预测模型;
3) DCRNN[33]:包含图卷积的扩散卷积循环神经网络;
4) STGCN[37]:时空图神经网络;
5) ASTGCN[38]:整合了时间注意力和空间注意力的图神经网络;
6) STSGCN[39]:通过堆叠多个局部图卷积层,能有效捕捉复杂局部时空相关性的时空GCN;
7) AGCRN[28]:通过节点嵌入捕获数据关联和节点特定模式的自适应图卷积循环网络.
3.4.2. 用于单步预测任务的基准模型
1) Auto-regressive Model (AR)[40]:自回归模型,经典的处理时序数据的统计方法;
2) VAR-MLP[12]:基于多层感知机和自回归模型的混合模型;
3) GP[13]:高斯过程时间序列模型;
4) RNN-GRU[41]: 具有全连接GRU隐藏单元的循环神经网络;
5) LSTNet[34]:专门用于多元时间序列预测的深度学习网络;
6) TPA-LSTM[16]:时间注意力长短期记忆网络,其不仅在同一时间步内,而且在之前的所有时间和序列中学习时序间的相互依赖关系;
7) MTGNN[9]:第1个专门针对多变量时序数据设计的通用GNN框架. 其通过图学习模块自动提取变量间的单向关系,并通过混合跳传播层和扩展初始层来捕获时序中的时空依赖关系;
8) SDGL[10]:能同时学习时序数据中稳定长期模式和动态短期模式的图神经网络.
4. 实验结果
多步预测任务实验结果如表2所示. 表中,加粗的数字是基准模型中每个评估指标的最小值. 可以看出,所有基于预定义图的GCN方法,预测效果均优于基于自注意力的模型DSANet,表明GCN模型更适合用于交通时序预测;基于图学习方法的模型AGCRN,其性能优于所有其他基于GCN的模型(原因可能是因为AGCRN使用了预定义图);本研究所提模型MTSGNN进一步提升了基于图学习方法AGCRN的性能,证明了MTSGNN模型框架的有效性;
表 2 多步预测任务中所有模型的实验结果
Tab.2
模型 | MAE | MAPE/% | RMSE | |||||
METR-LA | PEMS-BAY | METR-LA | PEMS-BAY | METR-LA | PEMS-BAY | |||
VAR | 3.60 | 2.07 | 4.90 | 10.50 | 4.74 | 27.60 | ||
DSANet | 4.59 | 2.49 | 4.90 | 12.70 | 5.69 | 29.40 | ||
DCRNN | 3.53 | 1.95 | 5.79 | 10.01 | 4.52 | 27.37 | ||
STGCN | 3.59 | 2.20 | 4.63 | 10.63 | 5.06 | 27.11 | ||
ASTGCN | 3.49 | 1.91 | 5.45 | 10.01 | 4.46 | 28.07 | ||
STSGCN | 3.40 | 1.95 | 4.60 | 10.05 | 4.49 | 26.88 | ||
AGCRN | 3.49 | 1.94 | 4.53 | 9.87 | 4.47 | 25.24 | ||
MTSGNN-S | 3.10 | 1.89 | 4.38 | 9.25 | 4.37 | 21.85 | ||
MTSGNN-D | 3.15 | 1.91 | 4.45 | 9.25 | 4.42 | 22.12 | ||
MTSGNN-GL | 3.09 | 1.88 | 3.37 | 9.17 | 3.38 | 21.81 | ||
MTSGNN | 3.05 | 1.75 | 4.01 | 8.72 | 4.02 | 20.72 |
单步预测任务实验结果如表3所示. 可以看出,基于GNN的方法MTGNN,其预测效果优于其他基线方法,表明GNN具有更强的依赖关系的建模能力;本研究所提模型MTSGNN进一步提高了MTGNN的性能,并且,在Solar-Energand和Electricity数据集上,MTSGNN的RSE相对其他基线模型的都降低了3%以上,提升效果非常显著. MTSGNN在Traffic数据集上的预测效果略优于MTGNN,这是因为预测目标是道路占用率,其值以相对稳定的模式变化.
表 3 单步预测任务中所有模型的实验结果
Tab.3
模型 | l | RSE | CORR | |||||||
Exchange-Rate | Traffic | Electricity | Solar-Energy | Exchange-Rate | Traffic | Electricity | Solar-Energy | |||
AR | 3 | 0.023 | 0.606 | 0.091 | 0.244 | 0.976 | 0.785 | 0.887 | 0.971 | |
6 | 0.028 | 0.628 | 0.101 | 0.379 | 0.965 | 0.763 | 0.864 | 0.926 | ||
12 | 0.035 | 0.628 | 0.112 | 0.591 | 0.954 | 0.763 | 0.853 | 0.811 | ||
24 | 0.045 | 0.639 | 0.123 | 0.870 | 0.942 | 0.752 | 0.875 | 0.531 | ||
VAR-MLP | 3 | 0.027 | 0.561 | 0.145 | 0.192 | 0.853 | 0.821 | 0.875 | 0.983 | |
6 | 0.039 | 0.663 | 0.167 | 0.268 | 0.875 | 0.775 | 0.842 | 0.966 | ||
12 | 0.040 | 0.606 | 0.156 | 0.424 | 0.831 | 0.797 | 0.821 | 0.906 | ||
24 | 0.057 | 0.628 | 0.134 | 0.684 | 0.777 | 0.785 | 0.862 | 0.715 | ||
GP | 3 | 0.024 | 0.607 | 0.156 | 0.226 | 0.875 | 0.785 | 0.876 | 0.975 | |
6 | 0.027 | 0.685 | 0.189 | 0.329 | 0.821 | 0.741 | 0.831 | 0.945 | ||
12 | 0.039 | 0.641 | 0.167 | 0.520 | 0.853 | 0.774 | 0.842 | 0.852 | ||
24 | 0.058 | 0.607 | 0.132 | 0.797 | 0.831 | 0.796 | 0.886 | 0.597 | ||
RNN-GRU | 3 | 0.019 | 0.549 | 0.112 | 0.193 | 0.986 | 0.853 | 0.864 | 0.982 | |
6 | 0.026 | 0.551 | 0.123 | 0.263 | 0.976 | 0.853 | 0.875 | 0.968 | ||
12 | 0.041 | 0.561 | 0.134 | 0.416 | 0.953 | 0.842 | 0.853 | 0.915 | ||
24 | 0.063 | 0.572 | 0.145 | 0.485 | 0.925 | 0.831 | 0.875 | 0.882 | ||
LSTNet | 3 | 0.023 | 0.482 | 0.086 | 0.184 | 0.976 | 0.875 | 0.932 | 0.984 | |
6 | 0.028 | 0.516 | 0.093 | 0.256 | 0.965 | 0.864 | 0.911 | 0.969 | ||
12 | 0.036 | 0.493 | 0.112 | 0.325 | 0.954 | 0.853 | 0.901 | 0.947 | ||
24 | 0.044 | 0.505 | 0.101 | 0.464 | 0.943 | 0.842 | 0.921 | 0.887 | ||
TPA-LSTM | 3 | 0.019 | 0.459 | 0.082 | 0.180 | 0.987 | 0.886 | 0.943 | 0.985 | |
6 | 0.026 | 0.461 | 0.092 | 0.235 | 0.976 | 0.875 | 0.932 | 0.974 | ||
12 | 0.036 | 0.471 | 0.096 | 0.323 | 0.965 | 0.886 | 0.921 | 0.949 | ||
24 | 0.046 | 0.482 | 0.112 | 0.439 | 0.942 | 0.864 | 0.911 | 0.908 | ||
MTGNN | 3 | 0.019 | 0.426 | 0.088 | 0.178 | 0.987 | 0.909 | 0.945 | 0.985 | |
6 | 0.026 | 0.471 | 0.091 | 0.235 | 0.977 | 0.875 | 0.943 | 0.973 | ||
12 | 0.035 | 0.459 | 0.101 | 0.311 | 0.976 | 0.897 | 0.932 | 0.951 | ||
24 | 0.046 | 0.461 | 0.112 | 0.427 | 0.954 | 0.886 | 0.943 | 0.903 | ||
SDGL | 3 | 0.018 | 0.414 | 0.070 | 0.018 | 0.981 | 0.901 | 0.953 | 0.981 | |
6 | 0.025 | 0.448 | 0.081 | 0.025 | 0.973 | 0.883 | 0.945 | 0.973 | ||
12 | 0.034 | 0.458 | 0.089 | 0.034 | 0.958 | 0.876 | 0.935 | 0.958 | ||
24 | 0.046 | 0.457 | 0.094 | 0.046 | 0.940 | 0.877 | 0.93 | 0.940 | ||
MTSGNN | 3 | 0.016 | 0.365 | 0.075 | 0.016 | 0.986 | 0.921 | 0.972 | 0.986 | |
6 | 0.023 | 0.415 | 0.079 | 0.023 | 0.982 | 0.942 | 0.961 | 0.982 | ||
12 | 0.032 | 0.405 | 0.089 | 0.032 | 0.987 | 0.957 | 0.952 | 0.987 | ||
24 | 0.041 | 0.415 | 0.089 | 0.041 | 0.965 | 0.943 | 0.963 | 0.965 |
图学习模块的影响如下. 定义MTSGNN-D和MTSGNN-S均为MTSGNN的变体. 其中,MTSGNN-D只利用图学习模块中的动态图学习进行多步预测,MTSGNN-S只利用静态图学习进行多步预测. MTSGNN-S的评价指标都略高于MTSGNN-D的,这是因为通常来说,静态图相对动态图运算速度会更快,性能更加高效. METR-LA和PEMS-BAY是交通数据集,而交通图的结构通常变化不大,这也可能是在这2个数据集中,只使用了静态图的MTSGNN-S比只使用了动态图的MTSGNN-D的预测效果略好的原因. MTSGNN-D和MTSGNN-S的各个指标都低于完整模型MTSGNN,这也验证了通过动态信息和静态信息的融合,可以更完整地描述时序之间的潜在关系,更有效地捕捉数据中潜在的内在联系.
图交互模块的影响如下. MTSGNN-GL是MTSGNN的另一个变体,它将图交互模块去除,仅使用图学习模块对时序进行多步预测. MGSGNN-GL中不包括式(11)、(12)的计算,并将式(13)、(14)分别改为:
动态图和静态图的影响如表2所示. 在交通数据集METR-LA上,MTSGNN-S和MTSGNN-D的预测效果有更提升的明显,每个评估指标都提高了6%以上(MTSGNN-S稍优于MTSGNN-D). 此外,MTSGNN-D因结合了动态图和静态图,虽然没有利用图交互模块对2种图的信息进行交互与融合,但预测效果仍得到了大幅提升. 例如,对于数据集PEMS-BAY,通过结合动态图和静态图,MAPE和RMSE分别降低了20%以上;MAE指标也有了明显的提升.
另外,为了评估计算成本,比较了l = 3时MTSGNN、LSTNet、TPA-LSTM和MTGNN在Exchange-Rate数据集上的参数数量
表 4 Exchange-Rate数据集上4个模型每epoch的训练时间
Tab.4
模型 | |||
LSTNet | 34.11 | 0.94 | |
TPA-LSTM | 313.41 | 8.71 | |
MTGNN | 349.57 | 4.86 | |
MTSGNN | 111.89 | 1.55 |
综上,1)传统统计模型VAR、AR、GP等模型虽然运算速度较快,但其对于复杂的多元时序数据的预测效果明显没有基于图的模型效果好;2)对于交通流量这种结构相对固定的数据,使用预定义图的GCN的方法(如STGCN、ASTGCN)可以在不使用复杂网络设计的情况下达到较好的预测效果,且效果明显优于基于注意力的方法DSANet,而本研究所提方法MTSGNN引入动态图对数据复杂的动态变化进行建模,预测效果比基于GCN的方法进一步提高了约10%,这在单步预测中得到了验证;3)相比其他基准模型,MTSGNN具有参数量较小、运算速度较快、预测效果更好等优点.
5. 结 语
提出基于图神经网络的多元时序预测模型MTSGNN. 为了充分挖掘时序数据之间的关系,该模型首先采用数据驱动的学习方法对时序静态图和动态图进行学习,分别提取数据中的静态和动态特征;其次,通过图交互模块融合上述2个图中的信息,使得每个节点能从其重要邻居节点获得更多的信息,进而可以更有效地捕捉数据中潜在的内在联系;最后,使用卷积运算处理静态图和动态图中的空间依赖关系,提高静态图和动态图上节点信息的扩散能力,并对多元时序进行预测. 实验结果表明,MTSGNN在6个真实数据集上的预测效果均优于所有基线模型,显示出了其在多元时序预测上的有效性和优越性.
本研究在图学习中只使用了单头注意力以自发地找到样本间的潜在相关性,然而样本间的相互联系是复杂的,因此,下一步研究将引入多头注意力,以提取样本间不同类型的相关性. 此外,本研究在图学习模块对时序样本间的相关性进行建模时,未考虑特征间的潜在关系变化. 因此,下一步在模型中还将加入能够学习特征间潜在变化的模块,以进一步提高模型的预测效果.
参考文献
Multivariate time series forecasting via attention-based encoder-decoder framework
[J].DOI:10.1016/j.neucom.2019.12.118 [本文引用: 1]
Machine learning-based algorithms to knowledge extraction from time series data: a review
[J].DOI:10.3390/data6060055 [本文引用: 1]
Deep learning for time series forecasting: tutorial and literature survey
[J].
Relation-aware dynamic attributed graph attention network for stocks recommendation
[J].DOI:10.1016/j.patcog.2021.108119 [本文引用: 1]
Pay attention to evolution: time series forecasting with deep graph-evolution learning
[J].
Dynamic graph structure learning for multivariate time series forecasting
[J].DOI:10.1016/j.patcog.2023.109423 [本文引用: 2]
Dynamic auto-structuring graph neural network: a joint learning framework for origin-destination demand prediction
[J].
Time series forecasting using a hybrid arima and neural network model
[J].DOI:10.1016/S0925-2312(01)00702-0 [本文引用: 2]
Gaussian processes for time-series modelling
[J].DOI:10.1098/rsta.2011.0550 [本文引用: 2]
Deep learning for time series forecasting: a survey
[J].DOI:10.1089/big.2020.0159 [本文引用: 1]
Temporal pattern attention for multivariate time series forecasting
[J].DOI:10.1007/s10994-019-05815-0 [本文引用: 2]
Representing multi-view time-series graph structures for multivariate long-term time-series forecasting
[J].
Inductive representation learning on dynamic stock co-movement graphs for stock predictions
[J].DOI:10.1287/ijoc.2022.1172 [本文引用: 1]
Adaptive dependency learning graph neural networks
[J].DOI:10.1016/j.ins.2022.12.086 [本文引用: 1]
Mgat: multi-view graph attention networks
[J].DOI:10.1016/j.neunet.2020.08.021 [本文引用: 1]
Fingat: financial graph attention networks for recommending top-k profitable stocks
[J].
Foundations and modeling of dynamic networks using dynamic graph neural networks: a survey
[J].
A review of recurrent neural networks: LSTM cells and network architectures
[J].DOI:10.1162/neco_a_01199 [本文引用: 1]
Graph learning based on spatiotemporal smoothness for time-varying graph signal
[J].DOI:10.1109/ACCESS.2019.2916567 [本文引用: 1]
Predicting machine failure using recurrent neural network-gated recurrent unit (RNN-GRU) through time series data
[J].DOI:10.11591/eei.v10i2.2036 [本文引用: 1]
/
〈 |
|
〉 |
