面向节点分类的图神经网络节点嵌入增强模型
Graph neural network based node embedding enhancement model for node classification
通讯作者:
收稿日期: 2022-08-4
基金资助: |
|
Received: 2022-08-4
Fund supported: | 国家重点研发计划资助项目(2021YFB1715600);国家自然科学基金资助项目(61902305,61922067);深圳基础研究基金资助项目(JCYJ20170816100819428);“人工智能”教育部-中国移动建设资助项目(MCM20190701) |
作者简介 About authors
曾菊香(1995—),女,博士生,从事图神经网络研究.orcid.org/0000-0002-0935-0715.E-mail:
考虑到实际的图结构往往是有噪的,可能包含实际不存在的边或者遗漏节点间实际存在的部分边,提出可微分相似度模型(DSM). 通过挖掘节点间隐藏关系增强节点嵌入,以提高节点分类的准确度. DSM基于普通图神经网络方法(GNN)得到各节点的基础表征,根据节点表征相似度为目标节点选出相似节点集合,结合相似节点集合的基础表征对目标节点进行嵌入表征增强. 在数学上,DSM 是可微分的,可以将 DSM 作为插件与任意 GNN 相结合,以端到端的方式进行训练. DSM具有挖掘隐藏连接关系的能力,能促使GNNs学习到更具辨识性和鲁棒性的节点表征. 基于最常用的多个公开的节点分类数据集,开展实验验证. 结果表明,将已有GNNs与DSM结合能显著提升分类准确度,其中GAT-DSM相对GAT在数据集Cora和Citeseer上分别取得了2.9%、3.5%的提升.
关键词:
In reality, the structure of most graphs could be noisy, i.e., including some noisy edges or ignoring some edges that exist between nodes in practice. To solve these challenges, a novel differentiable similarity module (DSM), which boosted node representations by digging implict association between nodes to improve the accuracy of node classification, was presented. Basic representation of each target node was learnt by DSM using an ordinary graph neural network (GNN), similar node sets were selected in terms of node representation similarity and the basic representation of the similar nodes was integrated to boost the target node’s representation. Mathematically, DSM is differentiable, so it is possible to combine DSM as plug-in with arbitrary GNNs and train them in an end-to-end fashion. DSM enables to exploit the implicit edges between nodes and make the learned representations more robust and discriminative. Experiments were conducted on several public node classification datasets. Results demonstrated that with GNNs equipped with DSM, the classification accuracy can be significantly improved, for example, GAT-DSM outperformed GAT by significant margins of 2.9% on Cora and 3.5% on Citeseer.
Keywords:
本文引用格式
曾菊香, 王平辉, 丁益东, 兰林, 蔡林熹, 管晓宏.
ZENG Ju-xiang, WANG Ping-hui, DING Yi-dong, LAN Lin, CAI Lin-xi, GUAN Xiao-hong.
近年来,基于卷积的图神经网络方法(graph neural networks, GNNs)在节点分类任务上取得了突出的效果[6],这些方法大多是利用图结构(邻接矩阵中显式存在的边)进行特征聚合. 不过,给定的图结构通常难以囊括节点间的所有关联关系,因此这类方法会导致部分节点无法通过邻域聚合获取足够多的特征信息. 以引文图为例,在该图中,节点表示论文,边表示2节点之间的引用关系. 显然,一篇论文最有可能引用与它主题相同的文献,这就解释了为什么现有GNNs利用显式的边连接关系能够取得突出成果. 然而,一篇文章不可能引用与它主题相同的所有论文,并且一些具有相同主题的文章在引用图中可能相隔较远. 因此,为了从其他节点聚合得到更丰富的特征信息,必须挖掘节点之间的隐式边.
受到上述思路的启发,为了实现了节点间隐藏连接关系的挖掘并从隐含连接关系中进行信息提取,本研究提出可微的相似度模型(differentiable similarity module, DSM)进行节点表征增强,使得所学到的节点表征在携带更多的节点类别信息的同时具有更高的鲁棒性和辨识性. 为了提高DSM的可用性与通用性,将DSM设计为可微分的形式,使其在与任意GNNs模型相结合后仍能进行端到端的训练。为了验证DSM的有效性,在多个开源数据集上进行实验.
1. 相关工作
本研究所提出的可微分相似度模型DSM与上述2类方法不同,DSM基于节点表征的相似度,在学习节点表征时引入相似节点的特征信息,使得最终学到的节点表征包含更多的节点类别信息且具有更高的鲁棒性和辨识性. 在某种程度上,DSM模型在特征提取时考虑了节点之间隐式的边连接关系. 此外,DSM可以作为插件与任意现有的基于频域和空间域的方法进行组合并且可以实现端到端的训练.
2. 图神经网络节点嵌入增强方法
2.1. 可微分相似度模型(DSM)
DSM的基本思路如下. 给定图
为了使相似节点选择过程可微,将相似节点的选取过程分为
式中:
在此基础上,可微分节点表征
接下来,将证明
规律1. 对于任意节点
规律2. 对于任意节点
根据式(1)~(3),显然有
在此基础上,对
DSM的计算开销主要来自节点相似度的计算,其算法复杂度为
2.2. DSM作为插件与GNNs结合
DSM作为插件与GNNs结合的整体结构如图1所示. 该框架主要包含3个部分:GNN、DSM和分类器. 首先,采用GNN用于提取节点的基本表征;其次,对于每一个节点,DSM选取
图 1
为了保证节点基本表征具备一定表征能力,整个网络的损失函数L包含2部分:1)采用节点增强表征进行分类的损失函数
式中:
3. 实验结果
3.1. 数据集
表 1 基准数据集的情况总结
Tab.1
数据集 | | | | |
Cora | 2 708 | 5 429 | 1 433 | 7 |
Citeseer | 3 327 | 4 732 | 3 703 | 6 |
Pubmed | 19 717 | 44 338 | 500 | 3 |
3.2. 实验设置
实验中所有方法的代码都基于Tensorflow框架实现[21]. 所有的实验均在具有32 G RAM和4块NVIDIA Tesla V100 GPU的X86_64设备上进行.
3.3. 评价标准和基线方法
3.4. 实验结果分析
3.4.1. 在3个开源数据集上的结果
如表2所示记录了各方法在Cora数据集上的平均准确率. 表中,黑体表示对应数据集上准确率最高的实验结果. 可以看出,将DSM作为插件与GNNs相结合的模型的节点分类表现优于已有方法的. 以“5节点/类”(即每个类别有5个训练节点)为例,DeepWalk的准确率仅为53.6%,GCN-DSM和GAT-DSM在“5节点/类”情况下准确度分别为69.4%和75.1%,而GCN与GAT在在同样的条件下的准确度分别为68.2%和72.2%,即GCN和GAT在与DSM结合后,准确率分别提升了1.2%和2.9%,说明DSM实现了节点表征增强. 还可以看出GAT-DSM的表现优于GCN-DSM,说明GNNs的种类对分类结果也有较大的影响. 此外,ChebyNet、GCN和GAT显著优于传统方法.
表 2 Cora数据集上的分类准确度
Tab.2
方法 | 5节点/类 | 10节点/类 | 20 节点/类 |
Raw | 36.4±3.0 | 40.9±2.5 | 47.1±1.9 |
MLP | 38.5±4.2 | 46.8±3.8 | 54.3±3.1 |
DeepWalk | 53.6±4.5 | 60.7±3.5 | 66.6±1.9 |
ChebyNet | 60.3±6.6 | 70.3±4.5 | 76.9±2.2 |
GCN | 68.2±5.6 | 75.4±2.2 | 79.6±1.6 |
GAT | 72.2±4.5 | 77.5±1.9 | 81.1±1.7 |
GCN-DSM | *69.4±5.3 | *76.2±3.0 | 79.5±1.9 |
GAT-DSM | *75.1±4.1 | *79.2±1.7 | *81.8±1.4 |
表 3 Citeseer数据集上的分类准确度
Tab.3
方法 | 5节点/类 | 10节点/类 | 20节点/类 |
Raw | 37.2±3.3 | 42.8±2.6 | 48.5±2.1 |
MLP | 34.2±6.1 | 38.1±6.3 | 52.1±5.8 |
DeepWalk | 33.4±4.2 | 38.0±2.7 | 41.9±2.4 |
ChebyNet | 59.4±5.3 | 65.6±2.4 | 67.7±2.0 |
GCN | 55.3±4.4 | 64.9±2.5 | 69.2±1.6 |
GAT | 62.4±3.0 | 66.6±2.2 | 69.9±1.7 |
GCN-DSM | *59.0±4.6 | *66.9±2.5 | *69.7±1.6 |
GAT-DSM | *65.9±2.6 | *68.3±2.3 | *70.6±1.8 |
表 4 Pubmed数据集上的分类准确度
Tab.4
方法 | 5节点/类 | 10节点/类 | 20节点/类 |
Raw | 57.7±1.3 | 62.3±3.3 | 66.5±2.4 |
MLP | 59.8±4.1 | 64.3±3.2 | 69.6±2.6 |
DeepWalk | 54.5±4.7 | 60.7±4.2 | 65.1±3.5 |
ChebyNet | 65.4±7.0 | 70.1±4.9 | 75.0±2.5 |
GCN | 68.2±6.2 | 72.9±3.8 | 77.0±2.4 |
GAT | 71.3±5.3 | 74.7±2.9 | 77.7±2.5 |
GCN-DSM | *68.8±5.7 | *73.8±3.7 | 77.0±2.5 |
GAT-DSM | *71.8±5.2 | *75.6±3.1 | *78.7±2.2 |
3.4.2. 最终节点表征可视化
图 2
图 2 5种不同节点表示学习方法在Cora、Citeseer、Pubmed数据集上的节点表征分布t-SNE图
Fig.2 t-SNE plots of node representation distribution of five different node embedding learning methods on Cora, Citeseer, and Pubmed datasets
3.4.3. 相似节点数量 $ K $ 对实验结果的影响
如图3(a)所示为GNNs-DSM在超参数
图 3
图 3 Cora数据集上相似节点数量、超参数、损失平衡因子对准确度的影响
Fig.3 Impact of number of similar nodes, hyper-parameter and loss balance factor on accuracy in Cora dataset
3.4.4. 超参数 $ \lambda $ 对实验结果的影响
如图3(b)所示为GNNs-DSM在不同超参数
3.4.5. 平衡因子 $ \gamma $ 对实验结果的影响
如图3(c)所示为GNNs-DSM在不同损失平衡因子
4. 结 语
提出可微分相似度模型DSM,该模型利用相似节点的信息挖掘节点之间隐式的边连接关系并且可以作为插件与任意GNNs相结合. 从实验测评和理论分析2个方面证明了将DSM作为插件与GNNs相结合不仅可以显著提高GNNs的节点分类准确率同时也保留了可以进行端到端训练的特性. 此外,在多个真实数据集上的实验结果也充分证明了DSM的有效性和鲁棒性. 除了GCN和GAT这2大最为主流的GNNs模型外,近年来众多学者设计出了多种多样的GNNs模型[19, 24-25],取得了显著的效果. 由于篇幅限制,本研究未对DSM与这些最新的优秀GNNs相结合的效果进行测试. 在未来的工作中,计划将DSM与目前最新的优秀GNNs模型相结合进一步测试DSM的有效性. 此外,还将探究如何将DSM拓展应用于异质图神经网络.
参考文献
A comprehensive survey on graph neural networks
[J].
Deep learning on graphs: a survey
[J].DOI:10.1109/TKDE.2020.2981333 [本文引用: 1]
Graph based anomaly detection and description: a survey
[J].DOI:10.1007/s10618-014-0365-y [本文引用: 2]
Semantic expansion using word embedding clustering and convolutional neural network for improving short text classification
[J].DOI:10.1016/j.neucom.2015.09.096 [本文引用: 1]
The graph neural network model
[J].DOI:10.1109/TNN.2008.2005605 [本文引用: 1]
Collective classification in network data
[J].DOI:10.1609/aimag.v29i3.2157 [本文引用: 2]
Visualizing data using t-SNE
[J].
/
〈 |
|
〉 |
