浙江大学学报(工学版), 2022, 56(5): 956-966 doi: 10.3785/j.issn.1008-973X.2022.05.013

计算机与控制工程

基于图卷积网络的归纳式微博谣言检测新方法

王友卫,, 童爽, 凤丽洲, 朱建明, 李洋, 陈福

1. 中央财经大学 信息学院,北京 100081

2. 天津财经大学 统计学院,天津 300222

New inductive microblog rumor detection method based on graph convolutional network

WANG You-wei,, TONG Shuang, FENG Li-zhou, ZHU Jian-ming, LI Yang, CHEN Fu

1. School of Information, Central University of Finance and Economics, Beijing 100081, China

2. School of Statistics, Tianjin University of Finance and Economics, Tianjin 300222, China

收稿日期: 2021-11-14  

基金资助: 国家自然科学基金资助项目(61906220); 教育部人文社科资助项目(19YJCZH178); 国家社科基金资助项目(18CTJ008); 天津市自然科学基金资助项目(18JCQNJC69600); 内蒙古纪检监察大数据实验室2020-2021年度开放课题资助项目(IMDBD202002, IMDBD202004); 中央财经大学新兴交叉学科建设项目;中国高校产学研创新基金项目(2021FNA01002)

Received: 2021-11-14  

Fund supported: 国家自然科学基金资助项目(61906220);教育部人文社科资助项目(19YJCZH178);国家社科基金资助项目(18CTJ008);天津市自然科学基金资助项目(18JCQNJC69600);内蒙古纪检监察大数据实验室2020-2021年度开放课题资助项目(IMDBD202002,IMDBD202004);中央财经大学新兴交叉学科建设项目;中国高校产学研创新基金项目(2021FNA01002)

作者简介 About authors

王友卫(1987—),男,副教授,博士,从事机器学习、数据挖掘研究.orcid.org/0000-0002-3925-3422.E-mail:ywwang15@126.com , E-mail:ywwang15@126.com

摘要

为了解决传统图卷积神经网络在进行谣言检测时面临的未充分考虑单词语义信息以及池化方法选择困难的问题,提出基于图卷积网络(GCN)的归纳式微博谣言检测新方法. 考虑单词之间的语义关系,结合传统词共现建图方法提出基于词语义相关性的微博事件建图方法,并结合图卷积网络和门循环单元(GRU)实现节点信息聚合;为了有效融合不同节点状态的特征信息,提出基于注意力机制的多池化方法融合策略融合最大池、平均池和全局池以获取最终的图级向量;为了提高微博谣言检测效率,探究微博评论时间对检测结果的影响,获得用于模型训练的最佳评论利用时间阈值. 实验结果表明,本研究方法在给定数据集上的表现普遍优于Text-CNN、Bi-GCN、TextING等典型方法,验证了其在微博谣言检测领域的有效性.

关键词: 谣言检测 ; 图卷积网络 ; 微博事件 ; 门循环单元 ; 注意力机制

Abstract

A new inductive microblog rumor detection method based on graph convolutional networks (GCN) was proposed to solve the problems faced by traditional GCN in rumor detection, such as the insufficient consideration of word semantic information and the difficulty of selecting pooling methods. Firstly, the semantic relationship between words was considered. A microblog event graph construction method based on word semantic correlation was proposed by combining the traditional word co-occurrence based graph construction method, and the node information aggregation was realized by combining GCN and gate recurrent unit (GRU). Then, in order to effectively fuse the feature information of different nodes, a multiple pooling methods fusion strategy based on attention mechanism, which fused max-pooling, average-pooling and global-pooling, was proposed to obtain the final graph level vector. Finally, in order to improve the efficiency of microblog rumor detection, the influence of microblog comment time on detection results was explored, and the best comment utilization time threshold for model training was obtained. Experimental results show that the performance of the proposed method is generally better than that of Text-CNN, Bi-GCN, TextING and other typical methods on the given datasets, verifying its effectiveness in the field of microblog rumor detection.

Keywords: rumor detection ; graph convolutional network ; microblog event ; gate recurrent unit ; attention mechanism

PDF (1246KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王友卫, 童爽, 凤丽洲, 朱建明, 李洋, 陈福. 基于图卷积网络的归纳式微博谣言检测新方法. 浙江大学学报(工学版)[J], 2022, 56(5): 956-966 doi:10.3785/j.issn.1008-973X.2022.05.013

WANG You-wei, TONG Shuang, FENG Li-zhou, ZHU Jian-ming, LI Yang, CHEN Fu. New inductive microblog rumor detection method based on graph convolutional network. Journal of Zhejiang University(Engineering Science)[J], 2022, 56(5): 956-966 doi:10.3785/j.issn.1008-973X.2022.05.013

当前,人们从社交媒体上获取的信息比从传统媒体(如电视、报纸)上获取的更多,人们倾向于相信来自社交媒体的信息,这也导致他们更容易受到谣言的侵害. 谣言指的是在发布时未经证实的信息,谣言会不同程度地引起焦虑和恐慌,并且公众很难区分已证实的信息和谣言[1]. 为了减少谣言的危害,微博在2010年11月就成立了微博辟谣平台,以人工检验的方式识别谣言. 《2020年度微博辟谣数据报告》[2]显示,该平台2020年辟谣3172条,平均每天辟谣不到9条,处理一条谣言平均用时11.09 h,由此可见,人工辟谣效率不高且存在一定的滞后性. 因此,实现高效、自动的微博谣言检测变得尤为重要.

考虑到人工识别谣言成本高昂,近年来,学者开始逐渐关注基于传统机器学习和基于深度学习的自动化谣言检测方法. 基于机器学习的方法主要集中在特征选择和抽取[3-5]、方法选择和优化[6-7]这两方面. 但是,由于机器学习方法普遍面临最优特征选择困难、检测精度不高的不足,越来越多的学者开始使用循环神经网络(recurrent neural network, RNN)[8]、门控循环单元(gate recurrent unit, GRU)[9]、长短期记忆网络(long short term memory, LSTM)[10]、卷积神经网络(convolutional neural network, CNN)[11-12]等深度学习方法进行谣言检测. Ma等[8]使用RNN来捕获评论的上下文信息随时间的变化,实现了快速准确的谣言检测. Wang等[9]建立情感词典并使用双层GRU获取微博的细粒度情感表达. 尹鹏博等[10]利用微博用户的历史行为特征,使用LSTM实现谣言早期检测. Song等[11]将所有转发信息视为一个序列,并通过CNN实现可信早期检测研究. 刘政等[12]将微博内容句向量化,并使用CNN来获取深层特征. 胡斗等[13]建立多关系图卷积网络获取源节点和关键传播节点在传播中的潜在影响力. Wu等[14]基于传播结构建立全局信息传播图神经网络,并引入注意力机制动态调整各节点的权重. 杨延杰等[15]建立融合门控机制和源信息的传播图卷积网络,增强源信息的影响力. Yang等[16]通过用户、帖子和用户评论的关系建立图卷积网络(graph convolutional network, GCN),利用图对抗框架学习独特结构特征.

上述基于CNN和RNN的方法主要关注局部特征,忽略了非连续单词之间的信息交互. 为此,Hu等[17]集成附加信息,提出异构图注意力网络(heterogeneous graph attention networks, HGAT)来解决短文本标记数据稀疏问题.Yao等[18]基于单词共现和文档-单词关系建图,利用图卷积网络实现词和文档嵌入表达的学习. Liu等[19]构造文本图张量来描述语义、句法和顺序上下文信息,通过GCN实现信息图内传播和图间传播. Zhang等[20]利用Li等[21]提出的模型有效实现了新词的归纳学习与上下文单词关系的捕捉. 米源等[22]利用Yao等[18]的方法实现半监督学习的谣言检测.

但是,现有方法仍面临以下问题:1) Zhang等[20]仅使用词共现建图,忽略了词语语义关系的影响,且固定的池化方法难以有效融合不同节点的特征信息;2) 米源等[22]将所有微博事件建立为一个整图,忽略了同一个词在不同微博事件中的不同作用;且仅通过GCN融合邻居节点信息,缺乏对连续上下文语义的利用;3) 现有微博谣言检测方法使用大量评论信息[8-911],检测效率不高. 因此,本研究提出基于GCN的归纳式微博谣言检测新方法.本研究创新点如下:1) 为每个微博事件单独建图,以词为节点,词的共现性和语义相关性作为节点之间的边,在此基础上提出基于GCN和GRU的节点信息传播模型;2) 在输出层使用注意力机制融合平均池、最大池、全局池[21]方法以获得最终的图级向量,避免传统固定池化方法难以有效捕获节点特征信息的不足;3) 为了提高微博谣言检测效率,研究评论时间对于谣言检测效率的影响,获得用于模型训练的最佳评论时间阈值,兼顾谣言检测准确率和效率.

1. 相关理论

1.1. 图卷积网络(GCN)

GCN是CNN的推广,可以直接对图进行卷积操作. 给定图G={VEA},其中,VG中节点集合(节点数量为n);EG中边的集合;A为邻接矩阵,ARn×n. GCN通过以下公式来获取隐藏层的表示[22]

$ {{\boldsymbol{H}}}^{l+1}=f\left({{\boldsymbol{H}}}^{l}\right)=\rho \left(\hat{{\boldsymbol{A}}}{{\boldsymbol{H}}}^{l}{{\boldsymbol{W}}}^{l}\right)\text{;}l=1,\cdots ,L. $

式中:Hl为第l层的特征矩阵,Hl$ {{\bf{{{R}}}}^{n \times {d_l}}} $dl为第l层每个节点维度;L为GCN的层数;Wl为可训练的权重,Wl$ {{\bf{{{R}}}}^{{d_l} \times {d_{l + 1}}}} $$ \hat {\boldsymbol{A}} $为归一化对称邻接矩阵, $ \hat {\boldsymbol{A}} $= $ {\tilde {\boldsymbol{D}} ^{ - {1}/{2}}}\tilde {\boldsymbol{A}} {\tilde {\boldsymbol{D}} ^{ - {1}/{2}}} $$ \tilde {\boldsymbol{A}} $为带自环的邻接矩阵, $ \tilde {\boldsymbol{A}} $Rn×n$ \tilde {\boldsymbol{A}} $=A+ I$ \tilde {\boldsymbol{D}} $$ \tilde {\boldsymbol{A}} $的度矩阵, $ \tilde {\boldsymbol{D}} $Rn×nρ为非线性激活函数.

1.2. 门控循环单元(GRU)

GRU由 Cho 等[9]基于LSTM提出. LSTM通过输入门、遗忘门和输出门分别控制输入值、记忆值和输出值,而GRU只有2个门,更新门和重置门,因此比标准的LSTM模型要简单. 利用GRU更新节点状态过程如下:

$ {{\boldsymbol{z}}_t} = {\text{Sigmoid}}\;\left( {{{\boldsymbol{W}}_z}[{{\boldsymbol{h}}_{t - 1}},{{\boldsymbol{x}}_t}]} \right), $

$ {{\boldsymbol{r}}_t} = {\text{Sigmoid}}\;\left( {{{\boldsymbol{W}}_r}[{{\boldsymbol{h}}_{t - 1}},{{\boldsymbol{x}}_t}]} \right), $

$ \tilde {{{\boldsymbol{h}}_t}} = \tanh \;\left( {{\boldsymbol{W}}[{{\boldsymbol{r}}_t} \odot {{\boldsymbol{h}}_{t - 1}},{{\boldsymbol{x}}_t}]} \right), $

$ {{\boldsymbol{h}}_t} = ({\boldsymbol{1}} - {{\boldsymbol{z}}_t}) \odot {{\boldsymbol{h}}_{t - 1}} + {{\boldsymbol{z}}_t} \odot \tilde {{{\boldsymbol{h}}_t}} . $

式中: $ [\cdot \;, \;\cdot ] $表示2个矩阵相连; $ \odot $表示求矩阵哈达玛积;Sigmoid、tanh均为激活函数;WzWr为训练权重矩阵;xt为当前时刻的输入;ht−1为上一个时刻的输出;ht为当前时刻的输出; $ \tilde {{{\boldsymbol{h}}_t}} $为当前的候选矩阵;zt为更新门,用于控制上一时刻的状态信息被带入到当前状态中的程度;rt为重置门,用于控制上一状态中有多少信息被写入到 $ \tilde {{{\boldsymbol{h}}_t}}$中.

2. 归纳式图卷积网络谣言检测方法

2.1. 问题描述

以微博事件为研究对象,相关定义如下.

定义1 微博事件. 定义一个所有微博事件的集合E={Ei}(0≤i<MM为微博事件个数). 其中,Ei={mi,j} (0≤j<N)表示第 $ i $个事件,包含源微博mi,0及其相关评论mi,j (1≤j<N),如图1所示.

图 1

图 1   微博事件举例

Fig.1   Example of microblog event


定义2 源微博. 源微博是指最开始发出的那一条微博,该微博不回复其他任何一条微博. 用mi,0表示,代表第i个微博事件的源微博.

定义3 相关评论. 相关评论是指与源微博相关联的那些微博,它们直接回复源微博或回复与源微博相关的微博. 用mi,j (1≤j<N)表示,代表第i个微博事件的第j条相关评论.

定义4 谣言检测函数. 谣言检测函数RD(EiΩ)输出Ei是否为谣言的判定结果(Ω为所需参数集),如果RD(EiΩ)=1,说明Ei为谣言,否则,Ei为正常事件.

2.2. 方法描述

本研究提出了基于图卷积网络的归纳式谣言检测方法−归纳式图卷积网络 (inductive graph convolutional network,IGCN). 如图2所示,首先针对微博谣言数据集中的每个微博事件,以源微博和其评论中出现的词语为节点,利用词共现性和词语义相关性建图;然后,提出基于GCN和GRU的归纳式节点信息传播模型,经过GCN层和GRU层获得微博事件节点信息交互后的向量表达;最后,使用注意力机制融合不同池化方法(最大池、平均池、全局池[21])的优势在池化层得到微博事件的最终图级向量表达,将其输入到全连接层中,通过计算损失函数值实现模型训练参数优化,完成谣言检测.

图 2

图 2   归纳式图卷积网络流程图

Fig.2   Flowchart of inductive graph convolutional network


2.2.1. 基于语义相关性的微博事件建图

Zhang等[20]通过词的共现关系构建单词图,但该方法忽略了词之间的语义关系且没有区分不同词之间的权重大小. 以语句“人生无限美好生活无限美妙”为例,如图3(a)所示为Zhang等[20]方法对应的建图结果,如图3(b)所示为使用Word2Vector词向量和余弦相似度得到的不同节点之间的语义相似度. 由图3(a)可知,“人生”和“生活”、“无限”和“无比”、“美好”和“美妙”之间不存在连接关系,但图3(b)显示这3对词之间均具有较强的语义相关性. 可以看出,Zhang等[20]仅以窗口大小确定节点对应的邻居节点,且将所有连边权重同等对待,难以准确表达相距较远的词语之间的语义关系.

图 3

图 3   文献[20]建图方法面临问题举例

Fig.3   Example of problems in graph construction of reference [20]


为了解决上述问题,本研究基于每个微博事件对应的微博源文和相关评论构成的语句,通过在词共现邻接矩阵Ψ基础上引入词语义相关邻接矩阵Φ来融合词语之间的共现性和语义相关性的影响. 与Zhang等[20]方法类似,Ψ矩阵通过计算固定大小的滑动窗口(默认长度为3)中出现的单词之间的关系获得:

$ {{{\varPsi}} }_{kl}=\left\{\begin{array}{l}1,\;词{v}_{k}和词{v}_{l}处于同一窗口\text{;}\\ 0,\;其他.\end{array} \right.$

词语义相关性邻接矩阵通过计算不同词语对应词向量之间的余弦相似度获得:

$ {{{\varPhi}} _{kl}} = \cos\;({\boldsymbol{V}}_k,{\boldsymbol{V}}_l) = \frac{{\displaystyle\sum\limits_{m = 1}^d {{{V}}_{km}{{V}}{{\rm{}}_{lm}}} }}{{\sqrt {\displaystyle\sum\limits_{m = 1}^d {{{V}}_{km}^2} } \sqrt {\displaystyle\sum\limits_{m = 1}^d {{{V}}_{lm}^2} } }}. $

式中:VkVl分别为词语vkvl对应的词向量,VkmVlm分别为向量VkVl的第m维元素,d为词向量的维度. 可见,Φkl∈[−1.0,1.0],Φkl越大,词语vkvl之间的语义相似度越高. 为了减少建图规模,引入语义相关性阈值th,其在图中的作用原理如下:

$ {{{\varPhi}} _{kl}} = \left\{ {\begin{array}{*{20}{l}} {0,\; \;\;\;\; {{{\varPhi}} _{kl}} < {\text{th}}\; {\text{或}} \;{{{\varPsi}} _{kl}} = 0}; \\ {{{{\varPhi}} _{kl}}, \; {\text{其他}}.} \end{array}} \right. $

在此基础上,得到每个微博事件Ei对应的词共现邻接矩阵Ψi(Ψi$ {{\bf{{{R}}}}^{|{V_i}| \times |{V_i}|}} $ViEi中词语集合,|Vi|为Vi中词语数量)和词语义相关性邻接矩阵ΦiΦi$ {{{{\bf{{{R}}}}}}^{|{V_i}| \times |{V_i}|}} $). 进一步地,分别针对ΨiΦi建立图结构,以此获得Ei对应的词共现图Gci={Vi,EciΨi}和词语义相关图Gsi={Vi,EsiΦi}. 其中,EciΨi中所有值为1的点对之间的连边集合,EsiΦi中所有值大于0的点对之间的连边集合.

2.2.2. 基于GCN和GRU的节点信息传播模型

基于GCN的文本分类方法依靠邻接矩阵更新节点状态信息[22],而邻接矩阵仅描述节点的邻居信息,缺乏对文本中连续上下文语义的表达. 鉴于GRU能够自动学习连续节点的上下文信息,将其与GCN结合,提出新的信息传播模型以实现图中节点向量信息的有效交互. 针对微博事件Ei,首先抽取Ei中所有词语V={vj}(vjV中第j个词语)并利用Word2Vector模型构建词向量H1 (H1hj组成,hjvj对应的词向量);然后,利用2.2.1节构建的词共现邻接矩阵Ψ和词语义相关邻接矩阵Φ,通过如下公式获得第l层(1<lL)节点状态Hl(Hl$ {\boldsymbol{h}}_j^l $组成, $ {\boldsymbol{h}}_j^l $为微博事件图中节点j在第l层的状态向量):

$ \begin{split} {{{\boldsymbol{H}}}}^l =\;& {\rm{laye}}{{\rm{r}}_{{\rm{GCN}}}}({{{\boldsymbol{H}}}}^{l - 1},{\boldsymbol{\varPsi}} ,{\boldsymbol{\varPhi}} ) =\hfill \\ \;&{{\rm{Relu}}}\; (\hat {\boldsymbol{\varPsi}} {{{\boldsymbol{H}}}}_{}^{l - 1}{\boldsymbol{W}}_0^{l - 1} + \hat {\boldsymbol{\varPhi}} {{{\boldsymbol{H}}}}_{}^{l - 1}{\boldsymbol{W}}_1^{l - 1});\;{l \geqslant 2} . \end{split} $

式中: $\hat{\boldsymbol{ \varPsi }}={{\boldsymbol{D}}_{\rm{c}}}^{ -{1}/{2}}({\boldsymbol{ \varPsi }} + {\boldsymbol{I}}){{\boldsymbol{D}}_{\rm{c}}}^{ -{1}/{2}}$$\hat {\boldsymbol{\varPhi}}={{\boldsymbol{D}}_{\rm{s}}}^{ -{1}/{2}}({\boldsymbol{\varPhi}} + {\boldsymbol{I}}) {{\boldsymbol{D}}_{\rm{s}}}^{ -{1}/{2}}$DcR|V|×|V|DsR|V|×|V|分别为ΨΦ的度矩阵; $ {\boldsymbol{W}}_0^l $$ {\boldsymbol{W}}_1^l $分别为第l层对应的训练权重矩阵;Relu为激活函数.

最后,将HL中的第k(1≤k≤|V|)个节点向量hk依次输入至GRU中,以此获得GRU输出节点状态向量HL+1(该向量由 $ {\boldsymbol{h}}_k' $组成,1≤k≤|V|):

$ {{\boldsymbol{z}}_k} = {\text{Sigmoid}}\;\left( {{{\boldsymbol{W}}_z}\left[ {{\boldsymbol{h}}_{_{k - 1}}',{{\boldsymbol{h}}_k}} \right]} \right), $

$ {{\boldsymbol{r}}_k} = {\text{Sigmoid}}\;\left( {{{\boldsymbol{W}}_r}\left[ {{\boldsymbol{h}}_{_{k - 1}}',{{\boldsymbol{h}}_k}} \right]} \right), $

$ \widetilde {{{\boldsymbol{h}}_k}} = \tanh\; \left( {{\boldsymbol{W}}\left[ {{{\boldsymbol{r}}_k} \odot {\boldsymbol{h}}_{_{k - 1}}',{{\boldsymbol{h}}_k}} \right]} \right), $

$ {{\boldsymbol{h}}_k'} = \left( {{\boldsymbol{1}} - {{\boldsymbol{z}}_k}} \right) \odot {{\boldsymbol{h}}_k} + {{\boldsymbol{z}}_k} \odot \widetilde {{{\boldsymbol{h}}_k}}. $

式中:k≥2, $ {\boldsymbol{h}}_1' $=h1. 可以看出,本研究所提出的基于GCN和GRU的信息传播模型以每个微博事件中的词向量为输入,通过利用词共现性邻接矩阵和词语义相关性邻接矩阵有效融合词语的连续上下文信息和非连续语义相关信息. 与米源等[22]不同的是,本研究针对每个微博事件建立词共现图和词语义相关图,因此可以从大量训练样本数据中学习有用规则以实现对未知微博事件的谣言检测,避免了米源等[22]的研究中测试数据必须参与训练导致模型无法推广到一般任务的问题.

2.2.3. 基于注意力机制的多池化方法融合

给定GRU输出节点向量HL+1(该向量由 $ {\boldsymbol{h}}_k' $组成,1≤k≤|V|),Zhang等[20-21]通过使用固定的池化方法降低节点向量维度,难以有效融合不同池化方法的优势. 为此,本研究引入注意力机制,通过融合平均池、最大池、全局池[21]函数获得最终图级向量表示,有效利用不同节点在图中的作用,具体如下:

$ {{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,avg}}}} = {\text{avg}}\;\left( {{{\boldsymbol{H}}^{L +1 }}} \right), $

$ {{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,max}}}} = {\text{max}}\;\left( {{{\boldsymbol{H}}^{L + 1}}} \right), $

$ \begin{split} {{\boldsymbol{h}}_{{\rm{g}},{\rm{glo}}}}=&{\rm{glo}}\;\left( {{{\boldsymbol{H}}^{L + 1}}} \right)=\\ &\tanh \;\left( {\sum\limits_{v \in V} {\sigma \;\left( {{f_1}\left( {{{\boldsymbol{h}}_v}} \right) \odot \tanh \;\left( {{f_2}\left( {{{\boldsymbol{h}}_v}} \right)} \right)} \right)} } \right). \end{split}$

式中:avg为节点向量按行求均值函数,max为节点向量按行求最大值函数,glo利用软注意力机制学习不同词语对应的权重,σ为Sigmoid激活函数,f1f2为多层感知机,hv为该微博事件中L+1时刻节点v的状态向量. 进一步地,使用注意力机制融合上述结果以获得最终的图级向量,具体公式如下:

$ {\bf{key}} = \left[ {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,avg}}}}}, {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,}}{{\rm{max}}} }}}, {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,glo}}}}} \right]^{\rm{T}}{{\boldsymbol{W}}_{{\rm{key}}}}, $

$ {\bf{que}} = \left[ {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,avg}}}}} , {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,}}{{\rm{max}}} }}} , {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,glo}}}}} \right]^{\rm{T}}{{\boldsymbol{W}}_{{\rm{que}}}}, $

$ {\bf{val}} = \left[ {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,avg}}}}} , {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,}}{{\rm{max}}} }}} , {{{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,glo}}}}} \right]^{\rm{T}}{{\boldsymbol{W}}_{{\rm{val}}}}, $

$ \left[ { {{\tilde{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,avg}}}}}} , { {{\tilde{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,}}{{\rm{max}}} }}}} , { {{\tilde{\boldsymbol{h}}_{\mathcal{{\rm{g}}}{\text{,glo}}}}}} \right]^{\rm{T}} = {\bf{val}}\;{({\text{softmax (}}{\bf{que}}{({\bf{key}})^{\text{T}}}))^{\text{T}}}, $

$ {{\boldsymbol{h}}}_{\mathcal{{\rm{g}}}}={\displaystyle \sum _{i\in \left\{{\rm{avg}},\mathrm{max},\text{glo}\right\}}\frac{{\Vert {{\tilde{\boldsymbol{h}}}_{{{\rm{g}}}\text{,}i}}\Vert }_{2}}{{\Vert {{\tilde{\boldsymbol{h}}}_{\mathcal{{\rm{g}}}\text{,avg}}}\Vert }_{2}+\Vert {{\tilde{\boldsymbol{h}}}_{\mathcal{{\rm{g}}}\text{,max}}}\Vert_{2} +{\Vert {{\tilde{\boldsymbol{h}}}_{\mathcal{{\rm{g}}}\text{,glo}}}\Vert }_{2}}{{\tilde{\boldsymbol{h}}}_{{\rm{g}}\text{,}i}}}. $

式中:WkeyR|V|×3WqueR|V|×3WvalR|V|×3为随机初始化的训练权重矩阵, $ {{\tilde {\boldsymbol{h}}_{\mathcal{{\rm{g}}},i}}} $为向量 $ {{\boldsymbol{h}}_{\mathcal{{\rm{g}}},i}} $经过自注意力机制后所得新向量, $ {\left\| { {{\tilde{\boldsymbol{h}}_{\mathcal{{\rm{g}}},i}}}} \right\|_2} $为向量 $ {{\tilde{\boldsymbol{h}}_{\mathcal{{\rm{g}}},i}}} $的模, $ {{\boldsymbol{h}}_\mathcal{{\rm{g}}}} $为最终获得的图级向量.

将2.2.2节获得的节点向量HL+1输入到本池化层中得到微博事件Ei对应的最终图级向量 ${{\boldsymbol{h}}_{{\rm{g}}}^i}$,最后将 ${{\boldsymbol{h}}_{{\rm{g}}}^i}$输入到全连接层中,结合Ei实际类别及交叉熵函数来使损失最小化,实现谣言检测:

$ {{\hat{\boldsymbol{Y}}_i}} = {\text{softmax}}\;({\boldsymbol{W}}{{\boldsymbol{h}}_{{\rm{g}}}^i} + {\boldsymbol{b}}), $

$ {L_{\rm{r}}} = - \sum\limits_{{E_i} \in E} {{y_i}\log_2\; (\hat {{y_i}})} . $

式中:Wb为训练权重矩阵, $ {L_{\rm{r}}} $为损失值,E为微博事件集合, $ \hat {{y_i}} $$\hat{\boldsymbol{Y}}_i $中谣言事件的概率,yiEi的实际类别(谣言事件为1,非谣言事件为0).

3. 实验结果与分析

3.1. 实验设置

本研究软件环境:Python3.6+TensorFlow1.14,硬件环境:CPU: Intel Xeon Gold 5218,内存:64 G,显卡:NVIDIA GeForce RTX 2080Ti. 实验采用公开的微博数据集Ma_Dataset[8]和Song_Dataset[11],2个数据集的详细信息如表1所示. 表中,nunenrntnc分别为用户数、事件数、谣言事件数、非谣言事件数、评论数.

表 1   数据集的详细信息

Tab.1  Details of datasets

数据集 nu ne nr nt nc
Ma_Dataset 2 746 818 4 664 2 351 2 313 3 805 656
Song_Dataset 1 067 410 3 387 1 838 1 849 1 275 180

新窗口打开| 下载CSV


为了减少噪声对实验效果的影响,对数据进行如下降噪操作:1)去除特殊信息,微博评论中包含无关信息,如超链接和@某某人,通过正则表达式删除这些信息;2)去除标点符号,由于感叹号和问号也可以作为区分谣言和非谣言的特征,保留这2种符号,去除其余符号;3)去除表情符号,去除微博事件中包含的表情符号;4)分词,采用jieba中文分词工具包实现分词操作;5)去除停用词,考虑到语气词可以作为一种隐含的文本特征,采用哈工大停用词表来去除语气词之外的其他停用词.

本研究验证集占总样本数的10%,其余样本中训练集和测试集的比例为3∶1. 实验参数设定如下:节点失活率dropout_rate=0.5,隐藏层大小hidden_size=96,轮次Epoch=400,学习率learning_rate=0.005,批尺寸batch_size=1 024. 此外,使用Gensim库的Word2Vec训练获得词向量,词向量维度D=300. 为了避免实验误差,针对每种方法取50次实验平均值作为最终的实验结果.

3.2. 评价指标

使用准确率(accuracy, Acc)、精确率(precision, Pre)、召回率(recall, Rec)和F1值4个指标作为微博谣言检测效果的评价指标,对应方式如下:

$ {\rm{Acc}} = \frac{{{\rm{TP}} + {\rm{TN}}}}{{{\rm{TP}} + {\rm{TN}} + {\rm{FP}} + {\rm{FN}}}}, $

$ {\rm{Rec}} = \frac{{{\rm{TP}}}}{{{\rm{TP}} + {\rm{FN}}}}, $

$ {\rm{Pre}} = \frac{{{\rm{TP}}}}{{{\rm{TP}} + {\rm{FP}}}}, $

$ {F_1} = \frac{{2 \times {\rm{Pre}} \times {\rm{Rec}}}}{{{\rm{Pre}} + {\rm{Rec}}}}. $

式中:TP为正确分类的微博谣言事件数量,TN为正确分类的非谣言事件数量,FP为错误分类的非谣言事件数量,FN为错误分类的谣言事件数量.

3.3. 评论利用时间对谣言检测效率的影响

鉴于人工检测一条谣言信息的平均用时为11.09 h[2],将微博评论利用时间控制在11.09 h内. 如表2所示为微博谣言事件“林依晨郑元畅相恋”的部分评论. 表中,tm为微博发出后的时间. 可以看出,在该微博发出后,从第1~5 h的评论和第1~10 h的评论中获取的信息是极其相似的,说明极有可能仅使用前5 h的评论信息便能获得跟前10 h评论信息相近的实验效果. 为此,本研究基于微博发出后10 h内的评论数据,以每2 h为分隔,通过实验结果确定评论利用的最佳时间,以此解决使用大量评论数据导致的方法训练效率较低的问题,实现谣言早期检测.

表 2   某源微博及其发出10 h内的相关评论

Tab.2  One source microblog and its related comments in ten hours

tm/h 典型评论内容
1 这是真的么?
真的?
2 真噶?![吃惊][哈哈]
真的还是假的现在醒着还是醉了[围观]
3 真的还是假的,咋没新闻?
假的吧
4 假的吧P的吧
[汗] 真的?
5 真的吗,求真相
真葛..真葛..?
6 真的吗?~小综!
真的吗
7 真的假的[思考]
求真相···
8 真的的还是假的?震惊~
这是骗我的吧?
9 不是吧[抓狂]
是假的是吗
10 啥?真的假的?
这么假也有人信

新窗口打开| 下载CSV


图4(a)~(d)所示为利用本研究方法在不同批尺寸下进行谣言检测时各个时间点对应的Acc. 可以看出,针对任意批尺寸取值,微博发出2 h的谣言检测准确率明显高于微博刚发出时的谣言检测准确率,充分说明在谣言检测中引入评论数据对提升谣言检测准确率的有效性. 同时,发现在Ma_Dataset中,当批尺寸为128、256、1024时,在微博发出4 h后能够达到最高的谣言检测准确率,而当批尺寸为512时,在微博发出8 h后能够达到最高的谣言检测准确率;而在Song_Dataset中,在所有批尺寸下,微博发出6 h后能够达到最高的谣言检测准确率. 考虑到一般情况,在Ma_Dataset和Song_Dataset中,评论数据利用最佳时间阈值分别取4、6 h,并将其应用于后续对比实验中.

图 4

图 4   源微博发出0~10 h内不同时间点的谣言检测准确率

Fig.4   Rumor detection accuracy at different time points within ten hours after source microblog being sent out


3.4. 微博事件建图方法对比

为了验证基于语义相关性的建图方法的有效性,将基于词共现性(word co-occurrence, WC)邻接矩阵的建图方法[20]和本研究建图方法进行对比. 这里将WC方法中的滑动窗口大小设定为3,并将本研究建图方法按照语义相关性阈值th划分为如表3所示的6种不同情况.

表 3   阈值不同时对应的本研究建图方法分类

Tab.3  Classification of proposed graph construction methods of different threshold values

本研究建图方法分类 th 本研究建图方法分类 th
WR-1 0.95 WR-4 0.80
WR-2 0.90 WR-5 0.75
WR-3 0.85 WR-6 0.70

新窗口打开| 下载CSV


在此基础上,将上述不同建图方法应用于本研究方法后续执行流程中,计算每种方法对应的谣言检测Acc,结果如图5所示. 可以看出,本研究使用词共现邻接矩阵和语义相关性邻接矩阵的谣言检测准确率均高于单纯基于词共现邻接矩阵的建图方法的,原因在于:1) 本研究建图方法同时考虑词语上下文连接关系和词语之间的语义相关性,所构建的微博事件图具有更多的连边数量,因此节点在信息传播过程融合了更丰富的特征信息;2) 本研究建图方法通过考虑语义相关信息为不同连边权重赋值,区分了不同邻居节点的影响. 进一步发现,除了在Ma_Dataset中批尺寸为512和Song_Dataset中批尺寸为256的情况外,2个数据集使用WR-3方法均能获得最高的谣言检测准确率. 因此,考虑到一般情况,本研究在后续实验中将语义相关性阈值设置为th=0.85.

图 5

图 5   不同建图方法的准确性比较

Fig.5   Accuracy comparison of different graph construction methods


3.5. 不同池化方法对比

为了验证基于注意力机制的多池化方法融合的有效性,首先使用基于语义相关性的建图方法对数据集中每个微博事件单独建图,然后利用本研究提出的基于GCN和GRU的信息传播模型获得图中不同节点向量表达,最后分别使用平均池化方法(AVG)、最大池化方法(MAX)、全局池化方法(GLO)[21]以及本研究池化方法(MIX)获取微博事件对应的最终图级向量. 将式(23)作为损失函数并进行训练后,得到不同批尺寸情况下上述池化方法对应的Acc,结果如图6所示. 可以看出,当批尺寸分别为128、256、512、1024时,在2个数据集中,MIX方法均表现最好,在Ma_Dataset中该方法比表现次优方法对应的Acc分别高出0.004、0.001、0.004、0.002,而在Song_Dataset中对应的Acc分别高出0.005、0.006、0.006、0.008. 当批尺寸为128时,MIX方法能够获得最大Acc,对应数据集Ma_Dataset和Song_Dataset结果分别为0.949和0.925,充分证明了本研究基于注意力机制的多池化方法融合策略在获取最终图级向量表达方面的有效性.

图 6

图 6   不同池化方法的准确性比较

Fig.6   Accuracy Comparison of different pooling methods


3.6. 与现有典型方法的比较

为了进一步验证本研究方法在微博谣言检测方面的有效性,将本研究方法与最先进的基线方法进行对比,这些方法可以分为:1) 机器学习方法,包括决策树排名(decision tree ranking, DT-Rank)[4]和使用时间序列信息的支持向量机(support vector machine using time series information, SVM-TS)[3];2) 非图神经网络深度学习方法,包括基于卷积神经网络的文本分类(text classification via convolutional neural networks, Text-CNN)[23]、双层GRU(GRU-2)[8]和可解释虚假新闻检测(explainable fake news detection,dEFEND)[24];3) 图神经网络深度学习方法,包括基于图卷积网络的文本分类(text classification via convolutional graph networks, Text-GCN)[18, 22]、双向图卷积网络(bi-directional graph convolutional networks, Bi-GCN)[25]、全局-局部注意力网络(global-local attention networks, GLAN)[26]和基于图神经网络的归纳文本分类(inductive text classification via graph neural networks,TextING)[20],相关实验设定如表4所示. 公平起见,深度学习方法未说明的设定与本研究方法的相同.

表 4   不同对比方法参数设置

Tab.4  Parameter settings of different methods for comparisons

对比方法 实验设定
DT-Rank[4] 所选特征包括来源可信度、来源身份、来源多样性、来源地址、语言态度、事件传播特征,特征选择方法为信息增益.
SVM-TS[3] 所选特征为内容特征、用户特征和传播特征,核函数为RBF.
Text-CNN[23] 卷积核尺寸分别等于3、4、5,卷积核数量为256.
GRU-2[8] GRU层数为2,词典大小为5 000.
dEFEND[24] 注意力层维度为100,共注意力层潜在维度为200.
Text-GCN[18, 22] GCN层数为2.
Bi-GCN[25] 模型早停忍耐批次为10.
GLAN[26] 卷积核尺寸分别等于3、4、5,卷积核数量为100.
TextING[20] 滑动窗口大小为3.

新窗口打开| 下载CSV


在此基础上计算不同方法对应的Acc、Pre、Rec及F1,结果如表5所示. 可以看出,传统方法SVM-TS表现优于DT-Rank. 与SVM-TS相比,本研究对应的Acc、Pre、Rec及F1在Ma_Dataset中依次分别提升了0.117、0.125、0.12、0.123,在Song_Dataset中依次分别提升了0.177、0.174、0.161、0.167. 与传统机器学习方法相比,非图神经网络深度学习方法对应的Acc、Pre、Rec及F1普遍偏高. 其中,dEFEND表现最佳,对应的Acc、F1在Ma_Dataset中分别为0.917、0.920,在Song_Dataset中分别为0.881、0.885. 进一步发现,图神经网络方法表现明显优于其他方法,这可能是因为此类方法在谣言检测时能有效利用长距离非连续单词的语义交互信息. 在Ma_Dataset和Song_Dataset中,与dEFEND相比,本研究方法的Acc分别提升了0.029、0.042,F1分别提升了0.021、0.038;与 TextING相比,Acc分别提升0.008、0.011,F1分别提升0.001和0.013,验证了基于语义相关性的微博建图方法以及基于注意力机制的多池化方法融合策略在提升微博谣言检测表现上的有效性.

表 5   本研究所提方法与现有典型方法的微博谣言检测结果对比

Tab.5  Comparison of microblog rumor detection results of proposed method and existing typical methods

方法 Ma_Dataset Song_Dataset
Acc Pre Rec F1 Acc Pre Rec F1
DT-Rank 0.727 0.736 0.731 0.733 0.653 0.637 0.665 0.651
SVM-TS 0.829 0.814 0.823 0.818 0.746 0.751 0.761 0.756
Text-CNN 0.848 0.839 0.854 0.846 0.801 0.807 0.812 0.809
GRU-2 0.902 0.895 0.891 0.893 0.842 0.837 0.846 0.841
dEFEND 0.917 0.912 0.929 0.920 0.881 0.873 0.898 0.885
Text-GCN 0.924 0.915 0.919 0.917 0.889 0.892 0.885 0.888
Bi-GCN 0.929 0.931 0.924 0.927 0.901 0.897 0.906 0.901
GLAN 0.930 0.935 0.932 0.933 0.903 0.908 0.912 0.910
TextING 0.938 0.937 0.943 0.940 0.912 0.906 0.915 0.910
本研究方法 0.946 0.939 0.943 0.941 0.923 0.925 0.922 0.923

新窗口打开| 下载CSV


为了验证本研究最优评论利用时间阈值的有效性,在Ma_Dataset和Song_Dataset中分别随机选取了源微博及源微博发出10 h内的连续4 h和连续6 h的评论构建新数据集,并在该数据集上计算TextING和本研究方法对应的Acc、Pre、Rec及F1,结果如表6所示. 可以看出,本研究方法仍优于其他对比方法,与表现次优的TextING相比,在Ma_Dataset中本研究方法的Acc、Pre、Rec及F1分别提升了0.008、0.002、0.002和0.003,而在Song_Dataset中分别为0.012、0.012、0.014、0.014. 结合表5可以看出,除了Text-GCN和Bi-GCN外,其他算法在本研究所得评论数据集上表现普遍更好,例如相较于随机选择连续4 h的评论数据而言,在Ma_Dataset中dEFEND及本研究算法使用前4 h评论数据对应的Acc分别提升了0.002和0.001,而在Song_Dataset中为0.004和0.002,验证了本研究最优评论利用时间阈值的有效性.

表 6   最优评论利用时间阈值有效性验证

Tab.6  Validation of effectiveness of optimal comment utilization time threshold

方法 Ma_Dataset Song_Dataset
Acc Pre Rec F1 Acc Pre Rec F1
DT-Rank 0.723 0.728 0.725 0.726 0.647 0.635 0.669 0.652
SVM-TS 0.824 0.810 0.817 0.813 0.743 0.753 0.764 0.758
Text-CNN 0.839 0.833 0.849 0.841 0.800 0.813 0.809 0.811
GRU-2 0.899 0.896 0.885 0.890 0.839 0.835 0.847 0.841
dEFEND 0.915 0.913 0.931 0.922 0.877 0.869 0.899 0.883
Text-GCN 0.925 0.916 0.913 0.914 0.892 0.887 0.880 0.883
Bi-GCN 0.928 0.933 0.921 0.927 0.902 0.895 0.911 0.903
GLAN 0.929 0.936 0.930 0.933 0.902 0.907 0.916 0.911
TextING 0.937 0.936 0.939 0.937 0.909 0.908 0.911 0.909
本研究方法 0.945 0.938 0.941 0.940 0.921 0.920 0.925 0.923

新窗口打开| 下载CSV


4. 结 论

(1) 通过为每个微博事件单独建立词共现图和词语义相关图,不仅有效结合了词的短距离上下文语义和长距离非连续语义,而且避免了测试数据必须参与模型训练导致无法推广到一般任务的问题.

(2) 综合GCN和GRU在处理非连续文本和连续文本方面的优势,提出基于GCN和GRU的节点向量信息传播模型.

(3) 考虑不同节点的贡献不同,通过注意力机制融合最大池、平均池、全局池结果以获取最终的图级向量,避免了单一池化方法带来的精度损失.

(4)研究评论发出时间对谣言检测结果的影响,通过实验获取最佳评论利用时间,在保证谣言检测准确率的同时提高了检测效率.

(5)实验结果表明,本研究在给定数据集上表现普遍优于现有典型方法. 未来研究将在微博谣言事件检测过程中综合考虑符号、图片、用户属性等更多特征以提高检测精度,并引入多任务学习、主动学习技术实现微博谣言事件的实时检测.

参考文献

ZUBIAGA A, AKER A, BONTCHEVA K, et al

Detection and resolution of rumours in social media: a survey

[J]. ACM Computing Surveys (CSUR), 2018, 51 (2): 1- 36

[本文引用: 1]

新浪微博虚假消息辟谣官方账号. 2020年度微博辟谣数据报告[EB/OL]. (2020-02-07) [2021-11-05]. https://weibo.com/1866405545/K0QaImwsK.

[本文引用: 2]

MA J, GAO W, WEI Z, et al. Detect rumors using time series of social context information on microblogging websites [C]// Proceedings of the 24th ACM International on Conference on Information and Knowledge Management. Melbourne: CIKM, 2015.

[本文引用: 3]

ZHAO Z, RESNICK P, MEI Q. Enquiring minds: early detection of rumors in social media from enquiry posts [C]// Proceedings of the 24th International Conference on World Wide Web. New York: WWW, 2015.

[本文引用: 2]

张仰森, 彭媛媛, 段宇翔, 等

基于评论异常度的新浪微博谣言识别方法

[J]. 自动化学报, 2020, 46 (8): 1689- 1702

[本文引用: 1]

ZHANG Yang-sen, PENG Yuan-yuan, DUAN Yu-xiang, et al

The method of Sina Weibo rumor detecting based on comment abnormality

[J]. Acta Automatica Sinica, 2020, 46 (8): 1689- 1702

[本文引用: 1]

曾子明, 王婧

基于LDA和随机森林的微博谣言识别研究: 以2016年雾霾谣言为例

[J]. 情报学报, 2019, 38 (1): 89- 96

DOI:10.3772/j.issn.1000-0135.2019.01.010      [本文引用: 1]

ZENG Zi-ming, WANG Jing

Research on Microblog rumor identification based on LDA and random forest

[J]. Journal of the China Society for Scientific and Technical Information, 2019, 38 (1): 89- 96

DOI:10.3772/j.issn.1000-0135.2019.01.010      [本文引用: 1]

CAI G, BI M, LIU J. A novel rumor detection method based on labeled cascade propagation tree [C]// Proceedings of the 13th International Conference on Natural Computation, Fuzzy Systems and Knowledge Discovery. Guilin: ICNC-FSKD, 2017.

[本文引用: 1]

MA J, GAO W, MITRA P, et al. Detecting rumors from microblogs with recurrent neural networks [C]// International Joint Conference on Artificial Intelligence. New York: IJCAI, 2016.

[本文引用: 6]

WANG Z, GUO Y, WANG J, et al

Rumor events detection from chinese microblogs via sentiments enhancement

[J]. IEEE Access, 2019, 7: 103000- 103018

DOI:10.1109/ACCESS.2019.2928044      [本文引用: 4]

尹鹏博, 潘伟民, 彭成, 等

基于用户特征分析的微博谣言早期检测研究

[J]. 情报杂志, 2020, 39 (7): 81- 86

DOI:10.3969/j.issn.1002-1965.2020.07.014      [本文引用: 2]

YIN Peng-bo, PAN Wei-min, PENG Cheng, et al

Research on early detection of Weibo rumors based on user characteristics analysis

[J]. Journal of Intelligence, 2020, 39 (7): 81- 86

DOI:10.3969/j.issn.1002-1965.2020.07.014      [本文引用: 2]

SONG C, YANG C, CHEN H, et al

CED: credible early detection of social media rumors

[J]. IEEE Transactions on Knowledge and Data Engineering, 2019, 33 (8): 3035- 3047

[本文引用: 4]

刘政, 卫志华, 张韧弦

基于卷积神经网络的谣言检测

[J]. 计算机应用, 2017, 37 (11): 3053- 3056

[本文引用: 2]

LIU Zheng, WEI Zhi-hua, ZHANG Ren-xian

Rumor detection based on convolutional neural network

[J]. Journal of Computer Applications, 2017, 37 (11): 3053- 3056

[本文引用: 2]

胡斗, 卫玲蔚, 周薇, 等

一种基于多关系传播树的谣言检测方法

[J]. 计算机研究与发展, 2021, 58 (7): 1395- 1411

DOI:10.7544/issn1000-1239.2021.20200810      [本文引用: 1]

HU Dou, WEI Ling-wei, ZHOU Wei, et al

A rumor detection approach based on multi-relational propagation tree

[J]. Journal of Computer Research and Development, 2021, 58 (7): 1395- 1411

DOI:10.7544/issn1000-1239.2021.20200810      [本文引用: 1]

WU Z, PI D, CHEN J, et al

Rumor detection based on propagation graph neural network with attention mechanism

[J]. Expert Systems with Applications, 2020, 158: 113595

DOI:10.1016/j.eswa.2020.113595      [本文引用: 1]

杨延杰, 王莉, 王宇航

融合源信息和门控图神经网络的谣言检测研究

[J]. 计算机研究与发展, 2021, 58 (7): 1412- 1424

DOI:10.7544/issn1000-1239.2021.20200801      [本文引用: 1]

YANG Yan-jie, WANG Li, WANG Yu-hang

Rumor detection based on source information and gating graph neural network

[J]. Journal of Computer Research and Development, 2021, 58 (7): 1412- 1424

DOI:10.7544/issn1000-1239.2021.20200801      [本文引用: 1]

YANG X, LYU Y, TIAN T, et al. Rumor detection on social media with graph structured adversarial learning [C]// Proceedings of the 29th International Conference on International Joint Conferences on Artificial Intelligence. Montreal: IJCAI, 2021.

[本文引用: 1]

HU L, YANG T, SHI C, et al. Heterogeneous graph attention networks for semi-supervised short text classification [C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong: EMNLP-IJCNLP, 2019.

[本文引用: 1]

YAO L, MAO C, LUO Y. Graph convolutional networks for text classification [C]// Proceedings of the AAAI Conference on Artificial Intelligence. New Orleans: AAAI, 2019.

[本文引用: 4]

LIU X, YOU X, ZHANG X, et al. Tensor graph convolutional networks for text classification [C]// Proceedings of the AAAI Conference on Artificial Intelligence. New York: AAAI, 2020.

[本文引用: 1]

ZHANG Y, YU X, CUI Z, et al. Every document owns its structure: inductive text classification via graph neural networks [C]// Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.[s.l.]:ACL, 2020.

[本文引用: 12]

LI Y, TARLOW D, BROCKSCHMIDT M, et al. Gated graph sequence neural networks [C]// Proceedings of the 4th International Conference on Learning Representations. Puerto Rico: ICLR, 2016.

[本文引用: 6]

米源, 唐恒亮

基于图卷积网络的谣言鉴别研究

[J]. 计算机工程与应用, 2021, 57 (13): 161- 167

DOI:10.3778/j.issn.1002-8331.2003-0357      [本文引用: 8]

MI Yuan, TANG Heng-liang

Rumor identification research based on graph convolutional network

[J]. Computer Engineering and Applications, 2021, 57 (13): 161- 167

DOI:10.3778/j.issn.1002-8331.2003-0357      [本文引用: 8]

KIM Y. Convolutional neural networks for sentence classification [C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha: EMNLP, 2014.

[本文引用: 2]

SHU K, CUI L, WANG S, et al. dEFEND: explainable fake news detection [C]// Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Anchorage: KDD, 2019.

[本文引用: 2]

BIAN T, XIAO X, XU T, et al. Rumor detection on social media with bi-directional graph convolutional networks [C]// Proceedings of the AAAI Conference on Artificial Intelligence. New York: AAAI, 2020.

[本文引用: 2]

YUAN C, MA Q, ZHOU W, et al. Jointly embedding the local and global relations of heterogeneous graph for rumor detection [C]// 2019 IEEE International Conference on Data Mining. Newark: ICDM, 2019.

[本文引用: 2]

/