融合全局信息和对比学习的图神经网络推荐模型
Graph neural network recommendation model integrating global information and contrastive learning
通讯作者:
收稿日期: 2025-02-14
| 基金资助: |
|
Received: 2025-02-14
| Fund supported: | 国家自然科学基金资助项目(62071323);天津市自然科学基金资助项目(22JCZDJC00220). |
作者简介 About authors
王彦乐(2000—),男,硕士生,从事推荐算法研究.orcid.org/0009-0005-4446-1102.E-mail:
基于图神经网络(GNN)的现有协同过滤模型存在原始图噪声和数据稀疏问题,为此提出新的图神经网络推荐模型(GICL),利用奇异值分解保留全局信息中主要的协同关系,抑制局部噪声. 为了挖掘节点之间的潜在关系,从图结构和语义空间中学习代表性嵌入作为节点的增强邻居,基于拓展的邻居构建对比学习任务. 利用GNN在交互图上聚集的同质节点信息创建节点的结构对比视图. 将原始图划分为语义子图,计算子图上的原型作为语义对比视图;将图协同过滤任务与2个对比辅助任务进行联合训练,缓解数据稀疏问题. 在4个公开数据集上的实验结果表明,GICL的推荐性能优于众多主流推荐模型.
关键词:
Existing collaborative filtering models based on the graph neural network (GNN) suffer from noise and data sparsity in the original graph. A novel graph neural network recommendation model (GICL) was proposed, employing singular value decomposition to retain the principal collaborative relationships from global information and suppress local noise. To capture latent relationships between nodes, representative embeddings were learned from both the graph structure and semantic space as augmented neighbors, and contrastive learning tasks were constructed based on these expanded neighbors. Specifically, a structural contrastive view was created by aggregating homogeneous node information using GNN, while a semantic contrastive view was constructed by partitioning the original graph into semantic subgraphs and using their prototypes. The graph collaborative filtering task was jointly trained with two contrastive auxiliary tasks to alleviate the data sparsity issue. Experimental results on four public datasets demonstrate that the GICL consistently outperforms many mainstream recommendation models.
Keywords:
本文引用格式
王彦乐, 张瑞峰, 李锵.
WANG Yanle, ZHANG Ruifeng, LI Qiang.
现有的图协同过滤方法虽然性能优异,但推荐系统中的一些经典问题仍会显著削弱模型效率. 1)原始用户-项目交互图难免包含局部噪声. 当GNN在图上迭代聚合时,噪声信息也会在图中传播,影响节点表征学习的质量. 根据文献[6]的结论,交互数据中只有少数对应较大奇异值的组件对推荐性能有贡献,大多数信息都包含噪声. 基于GNN的方法与低秩方法(如奇异值分解)存在密切联系,构建两者的协作关系成为抑制噪声问题的思路. 2)在推荐系统中用户和项目的交互数据通常是稀疏的. GNN的传播机制可以在一定程度上缓解数据稀疏问题,但它依赖于图结构上的显式交互,忽略了用户和项目之间更丰富的关联信息. 原始图的信息不足可能会限制GNN的表征能力,进而降低推荐任务的准确性. 有研究通过对比学习来缓解数据稀疏问题[7-9],通过破坏图结构或随机游走构建对比任务. 这种设计能够提升模型性能和鲁棒性,但会扭曲原始图信息. 如何有效利用低秩表示抑制噪声,同时为图协同过滤方法构建更有意义的对比学习任务仍需要进一步探索.
本研究提出融合全局信息和对比学习的图神经网络推荐模型(graph neural network recommendation model integrating global information and contrastive learning, GICL). 该模型通过奇异值分解(singular value decomposition, SVD)截断邻接矩阵获取低秩表示,从全局角度抑制噪声数据;构建节点级的对比任务,从结构感知和语义相似角度学习代表性嵌入,用以构建正负样本对,挖掘交互图上的潜在关系. 本研究将1)开展原始图的噪声与低秩方法(如SVD)的关系研究,利用SVD改进图协同过滤框架,捕捉全局信息中主要的关联模式. 2)设计基于2种增强邻居的对比学习目标,分别利用图结构上的同质邻居和划分语义子图来构造节点的对比视图,作为辅助任务缓解数据稀疏问题. 3)在4个公开数据集上开展GICL与多个主流推荐模型的性能对比研究.
1. 相关工作
相较于传统神经网络,GNN在处理非欧式数据时更具优势,其中图卷积网络(graph convolutional network, GCN)[10]是其中较为流行的变体. 研究者将交互数据建模为用户-项目二部图,利用GCN学习图的拓扑结构和节点表征. GCN通过邻域信息传播机制学习节点嵌入,能够逐层聚合邻域节点的特征. 例如Wang等[4]提出的神经图协同过滤(neural graph collaborative filtering, NGCF),利用多层图卷积捕捉二部图上的高阶关系,并融合不同层的嵌入获取节点的最终表示. He等[5]提出LightGCN,证实特征变换和非线性激活对推荐性能贡献甚微,只保留邻域聚合的部分. 这种轻量化设计启发了后续的模型设计,许多研究者在其基础上提出改进. 然而大多数基于图的协同过滤方法主要关注历史交互记录,无法利用潜在的关系和约束(如节点相似性)学习节点表示. 为了捕获用户和项目之间的关联信息,Sun等[7]提出构建更多的图结构,将同质节点的相似性纳入节点嵌入的学习中,利用交互数据中的潜在信息提高建模的质量.
对比学习作为自监督方法,也能够有效提高信息的利用率. 有研究将对比学习引入图协同过滤中,以提高模型的性能. 数据增强是构造对比学习任务的重要步骤,通过改变原始数据的结构或者添加扰动生成对比视图. 在此基础上,研究者将对比学习作为辅助任务探索交互数据中的潜在关系,并设计了多种构造方案. Wu等[8]提出的自监督图学习(self-supervised graph learning,SGL)模型,通过丢弃节点和边,以及随机游走策略,对图结构进行增强. 这种构造方式虽然简单,但对比视图可能会丢失关键信息,变成断开的片段,强行拉近片段之间的距离可能会产生负面影响. 对此,Yu等[9]放弃图结构增强,而是在嵌入空间中添加均匀噪声生成对比视图,使节点表示分布更均匀. 进一步地,Lin等[11]提出为节点学习代表性嵌入,从节点的结构和语义2个角度构造对比视图,使结合对比学习的推荐模型在对比效率和推荐精度上有所提升. Li等[12]基于图的局部和全局结构提出多视图的对比学习模块,捕获不同聚合范式下的深层图结构和语义区分特征.
2. 融合全局信息和对比学习的图神经网络推荐模型
给定用户集合U和项目集合I,将用户交互数据建模为图
图 1
图 1 融合全局信息和对比学习的图神经网络推荐模型的总体框架
Fig.1 Overall framework of graph neural network recommendation model integrating global information and contrastive learning
2.1. 融合奇异值分解的图卷积协同过滤
在GICL中,利用图卷积神经网络对交互图
学习低秩表示在协同过滤中起着重要作用,能够保留数据中最重要的结构信息. 对邻接矩阵A进行奇异值分解,捕捉图中全局性的模式:
式中:
式中:
基于用户u和项目i的最终表示,根据内积预测两者之间的交互概率,预测得分为
为了捕获交互中的信息,采用贝叶斯个性化排名(Bayesian personalized ranking, BPR)损失[13]作为判断用户对项目偏好程度的目标函数:
式中:
2.2. 结构邻居对比学习任务
现有的图协同过滤方法大多依赖于历史交互信息学习节点表示,在数据稀疏的场景下,这些方法的性能会显著降低. 考虑到交互图
式中:
完整的结构邻居对比目标表达式为
2.3. 语义邻居对比学习任务
结构邻居对比基于二部图上的结构性邻域构造. 这个环节对节点的同质邻居一视同仁,容易被用户的随机交互干扰,将噪声引入对比学习任务. 本研究引入语义邻居对比以减少结构邻居噪声的影响. 语义邻居是指没有显式的图连接,但特征相似(项目)或偏好相近(用户)的节点. 相似的节点在嵌入空间中往往是相邻的,可以通过学习用户和项目节点的潜在原型识别语义邻居,原型是指同质语义邻居的簇中心[15]. 本研究提出原型对比目标探索潜在的语义邻居,获取用户和项目的原型,具体分为3个步骤:语义子图构建、局部加权平滑和原型对比学习.
2.3.1. 语义子图构建
采用基于线性投影的无监督方法将用户/项目的节点嵌入聚类到K个子图上,从而构建语义子图. 相比注意力机制,线性投影是稳健且计算高效的映射方式,不容易受局部噪声的干扰. 具体地,通过线性变换将节点嵌入投影到子图空间,过程表达式为
式中:
式中:
2.3.2. 局部加权平滑
对于获得的语义子图,设计局部加权平滑(local weighted smoothing, LWS)机制,用于聚合子图上节点的直接邻居. 该机制的核心是通过迭代更新节点的表示,使节点在嵌入空间中更接近直接邻居,从而优化子图上的节点嵌入. LWS机制在单次迭代中的核心操作如图2所示. 对于子图
图 2
图 2 局部加权平滑机制在单次迭代中的核心操作
Fig.2 Core operation of local weighted smoothing in single iteration
在邻居节点集
将节点h的嵌入与局部加权表示相加来更新节点表示,得到临时表示
为了防止更新后的向量变大且不可比,对临时表示
归一化操作能够保持向量的方向和相对大小,使不同的节点嵌入在同一尺度下可比. 至此,节点h的表示更新为
式中:
式中:
2.3.3. 原型对比学习
在子图上进行l层的LWS操作后,子图内的节点表示更接近语义邻居. 同一子图内的用户节点可视为一组语义邻居,计算其簇中心作为原型表示. 本研究对分布在各个子图上的用户都计算了原型,将用户的节点表示与所属原型作为正样本对,在InfoNCE[14]的基础上进行原型对比学习,目标是最小化用户目标函数:
式中:
完整的原型对比学习目标是用户和项目的目标函数之和:
2.4. 模型总体训练目标
协同过滤的主要目标是对用户和项目之间的交互进行建模. 采用以BPR损失为主,对比损失为辅的多任务学习策略,总体训练目标函数为
式中:
算法1 融合全局信息和对比学习的图神经网络推荐模型训练过程
输入 用户-项目二部图
输出 项目评分排名列表
预处理 根据交互矩阵R构建邻接矩阵A;
截断SVD获取用户/项目的初始嵌入;
For epoch = 1 to N
1.在交互图
2.根据式(8)计算BPR损失
3.执行结构邻居对比学习,根据式(9)和式(10)计算结构邻居对比损失
4.执行语义邻居对比学习,根据式(20)和式(21)计算语义邻居对比损失
5.根据式(23)计算总损失,并更新模型参数;
End for
3. 实验与分析
3.1. 实验设置
3.1.1. 数据集
表 1 数据集的基本信息
Tab.1
| 名称 | 用户数 | 项目数 | 交互数 | 稠密度 |
| ML-1M | 6 040 | 3 629 | 836 478 | 0.038 16 |
| Yelp | 45 478 | 30 709 | 1 777 765 | 0.001 27 |
| Books | 58 145 | 58 052 | 2 517 437 | 0.000 75 |
| Gowalla | 29 859 | 40 989 | 1 027 464 | 0.000 84 |
3.1.2. 评价指标
为了评估模型的top-N推荐性能,采用召回率Recall@N和归一化折损累计增益NDCG@N作为评测指标,取N=10、20、50. Recall@N表示在模型推荐前N个项目中,用户实际喜欢的项目被推荐比例;该指标用于衡量推荐的命中率. NDCG@N考虑推荐项目的顺序,对排名靠前的项目给予更高的权重;该指标用于衡量推荐项目排序的合理性. 模型整体采用全排序策略,对用户未交互的所有候选项目进行评分.
3.1.3. 对比模型与实现细节
为了验证GICL的有效性,从图协同过滤基础模型和对比学习增强模型2个角度,选取以下具有代表性的基线方法进行比较.1)NGCF[4]:利用交互数据构建图结构,通过图神经网络逐层传播,学习用户和项目的节点特征. 2)LightGCN[5]:简化图卷积操作以减少计算复杂度,保留协同过滤中重要的信息传播机制. 3)SGL[8]:将自监督学习引入GNN中,利用对比学习提升推荐系统的嵌入质量和预测准确性. 4)SimGCL[9]:在图结构上引入随机扰动生成对比样本,舍弃图增强操作,降低计算复杂度,缓解长尾推荐偏差问题. 5)NCL[11]:通过结构近邻和K-means聚类寻找节点的正样本,显式捕获节点之间的关联性. 6)AdaGCL[20]:采用可训练的视图生成器,包括图生成模型和图去噪模型,以创建自适应的对比视图. 7)GraphAug[21]:通过可学习的图采样与重参数化,自适应地生成高质量的对比视图,在聚合时利用混合跳跃图编码器缓解过度平滑问题.
实验在Python3.8、Pytorch1.9.0环境下进行,服务器环境为Ubuntu 16.04,显卡为RTX 2080Ti. 所有模型统一使用Adam优化器进行优化,用Xavier分布进行参数初始化,嵌入维度设置为64,批处理大小为
3.2. 结果分析
3.2.1. 模型性能比较
GICL和对比模型的性能对比结果如表2所示,其中表现最好的基线模型指标用下划线标注,η为GICL与最佳基线模型相比的性能提升率. 在图协同过滤模型中,LightGCN的优异表现说明舍弃图神经网络中的冗余操作可以更高效地完成推荐任务. SGL和SimGCL利用图增强和添加扰动的方法构建对比视图,性能表现稳定超过LightGCN,这表明对比学习能够有效地提高推荐性能. NCL、AdaGCL和GraphAug采用更新颖的方式构造对比视图,给模型提供额外的高质量训练信号,推荐性能进一步提升. GICL在图协同过滤的基础上,使用SVD处理邻接矩阵,从图的全局信息中提取最显著的关系模式,参与节点表示的学习过程. 设计在该模型中的基于结构邻居和语义邻居的对比辅助任务能够提高节点嵌入学习的质量. 由实验结果可以看出,GICL的性能始终优于基线模型. 特别是在Books数据集上,与最强基线相比,Recall@50和NDCG@50指标分别提升了5.97%和4.84%. 此外,GICL在ML-1M数据集上的性能提升明显低于其他数据集. 经过分析,原因可能是ML-1M的数据相对稠密(见表1),能够提供更多的监督信号,即使不设置增强邻居构建对比任务,模型也能学到较好的节点表示. 在稀疏的数据集中,有效交互的数量不足,充分利用潜在的邻居关系对于推荐任务至关重要,因此GICL性能提升更显著.
表 2 不同推荐模型在4个公开数据集上的性能参数对比
Tab.2
| 数据集 | 模型 | Recall@10 | NDCG@10 | Recall@20 | NDCG@20 | Recall@50 | NDCG@50 |
| ML-1M | NGCF | 0.184 6 | 0.252 8 | 0.274 1 | 0.261 4 | 0.434 1 | 0.305 5 |
| LightGCN | 0.187 6 | 0.251 4 | 0.279 6 | 0.262 0 | 0.446 9 | 0.309 1 | |
| SGL | 0.188 8 | 0.252 6 | 0.284 8 | 0.264 9 | 0.448 7 | 0.311 1 | |
| SimGCL | 0.205 2 | 0.272 6 | 0.298 8 | 0.281 5 | 0.451 5 | 0.328 2 | |
| NCL | 0.204 8 | 0.272 2 | 0.302 5 | 0.283 2 | 0.462 8 | 0.329 2 | |
| AdaGCL | 0.207 2 | 0.274 5 | 0.301 2 | 0.286 8 | 0.466 2 | 0.329 5 | |
| GraphAug | 0.206 0 | 0.273 2 | 0.303 4 | 0.284 3 | 0.468 6 | 0.330 0 | |
| GICL | 0.210 3 | 0.277 3 | 0.304 4 | 0.287 9 | 0.470 6 | 0.333 9 | |
| η/% | +1.50 | +1.02 | +0.33 | +0.38 | +0.43 | +1.18 | |
| Yelp | NGCF | 0.063 0 | 0.044 6 | 0.102 6 | 0.056 7 | 0.186 4 | 0.078 4 |
| LightGCN | 0.073 0 | 0.052 0 | 0.116 3 | 0.065 2 | 0.201 6 | 0.087 5 | |
| SGL | 0.083 3 | 0.060 1 | 0.128 8 | 0.073 9 | 0.214 0 | 0.096 4 | |
| SimGCL | 0.089 6 | 0.065 8 | 0.130 4 | 0.081 0 | 0.209 8 | 0.101 8 | |
| NCL | 0.091 2 | 0.066 2 | 0.132 6 | 0.081 3 | 0.224 7 | 0.104 8 | |
| AdaGCL | 0.090 2 | 0.067 3 | 0.131 2 | 0.082 2 | 0.221 3 | 0.102 5 | |
| GraphAug | 0.092 2 | 0.068 2 | 0.137 7 | 0.081 7 | 0.224 0 | 0.104 2 | |
| GICL | 0.095 8 | 0.070 4 | 0.143 4 | 0.084 2 | 0.233 2 | 0.107 4 | |
| η/% | +3.90 | +3.23 | +4.14 | +2.43 | +3.78 | +2.48 | |
| Books | NGCF | 0.061 7 | 0.042 7 | 0.097 8 | 0.053 7 | 0.169 9 | 0.072 5 |
| LightGCN | 0.079 7 | 0.056 5 | 0.120 6 | 0.068 9 | 0.201 2 | 0.089 9 | |
| SGL | 0.089 8 | 0.064 5 | 0.133 1 | 0.077 7 | 0.215 7 | 0.099 2 | |
| SimGCL | 0.092 4 | 0.065 6 | 0.133 8 | 0.082 0 | 0.215 8 | 0.100 9 | |
| NCL | 0.093 0 | 0.066 4 | 0.137 7 | 0.081 2 | 0.216 4 | 0.101 7 | |
| AdaGCL | 0.094 2 | 0.067 2 | 0.134 6 | 0.082 8 | 0.217 7 | 0.102 3 | |
| GraphAug | 0.093 7 | 0.068 2 | 0.138 1 | 0.081 5 | 0.217 0 | 0.103 2 | |
| GICL | 0.098 9 | 0.071 5 | 0.146 4 | 0.085 9 | 0.230 7 | 0.108 2 | |
| η/% | +4.99 | +4.84 | +6.01 | +3.74 | +5.97 | +4.84 | |
| Gowalla | NGCF | 0.119 2 | 0.085 2 | 0.175 5 | 0.101 3 | 0.281 1 | 0.127 0 |
| LightGCN | 0.136 2 | 0.087 6 | 0.197 6 | 0.115 2 | 0.304 4 | 0.141 4 | |
| SGL | 0.146 5 | 0.104 8 | 0.208 4 | 0.122 5 | 0.319 7 | 0.149 7 | |
| SimGCL | 0.147 2 | 0.105 2 | 0.200 5 | 0.123 2 | 0.319 8 | 0.150 8 | |
| NCL | 0.148 2 | 0.106 1 | 0.211 8 | 0.125 3 | 0.322 9 | 0.153 1 | |
| AdaGCL | 0.149 1 | 0.108 2 | 0.212 7 | 0.127 5 | 0.323 8 | 0.152 2 | |
| GraphAug | 0.151 2 | 0.107 3 | 0.213 2 | 0.126 5 | 0.325 4 | 0.154 1 | |
| GICL | 0.156 7 | 0.113 9 | 0.220 5 | 0.131 8 | 0.332 7 | 0.159 6 | |
| η/% | +3.64 | +5.27 | +3.42 | +3.37 | +2.24 | +3.57 |
3.2.2. 时间复杂度分析
分析GICL的时间复杂度,选取先进模型NCL、AdaGCL和GraphAug进行比较,结果如表3所示. 其中d为嵌入维度,L为图卷积层数,B为单个批次中的节点数,S为对比任务中负样本数量,
表 3 不同推荐模型的时间复杂度对比
Tab.3
| 模型 | 图卷积 | 数据增强 | 对比学习损失 |
| GraphAug | |||
| AdaGCL | |||
| NCL | — | ||
| GICL | — |
3.3. 消融实验
在Yelp和Books数据集上进行模块消融实验,以探索GICL各组件设计对模型的实际影响. 设计以下3个模型变体. 1)GICL1:去除结构邻居对比任务,模型其他部分保持不变. 2)GICL2:对于语义邻居对比任务,使用K-means聚类的方式获取用户和项目的原型,代替模型中的划分子图和LWS操作,模型其他部分保持不变. 3)GICL3:去除图协同过滤主干中SVD截断的部分,只保留LightGCN的设计. 各变体去除或替换对应组件之后,对比任务的权重以及其他超参数均保持不变. 原模型与变体的对比实验结果如图3所示. 可以看出,去除任一设计都会导致模型性能下降,表明这些组件都有助于性能提升. GICL1性能下降最明显,说明结构邻居对比任务能够挖掘同质节点之间的相似性,这些潜在关系对推荐任务意义重大. GICL2使用K-means替换原有组件导致模型性能下滑,证明在子图上进行LWS操作获取用户和项目的原型能够更有效地捕捉节点之间的语义关联. 对于GICL3,绘制以Recall@20为指标的训练曲线,与原模型进行对比,探究SVD在模型中的具体作用,结果如图4所示. 该训练过程在Gowalla数据集上进行,GICL始终拥有更好的性能且收敛速度更快,说明将SVD截断后的向量作为预训练嵌入能够为训练提供更合理的起点,同时将捕获的全局信息融入节点的最终表示能够提升推荐的性能.
图 3
图 3 推荐模型及其变体在2个公开数据集上的性能参数对比
Fig.3 Performance comparison of recommendation model and its variants on two public datasets
图 4
图 4 奇异值分解模块在Gowalla数据集上的消融实验结果
Fig.4 Ablation results of singular value decomposition module on Gowalla dataset
3.4. 参数分析
3.4.1. 语义子图数量
为了探索语义子图数量K对模型性能的影响,在ML-1M数据集上进行实验,实验结果如图5所示. 实验过程中固定模型中的其他参数,测试K变化对实验结果的影响, K的取值范围为{3, 5, 7, 9, 11}. 可以看出,当K从3增加到11,GICL的性能指标曲线呈先升后降的趋势. 分析原因,当K较小时,语义子图数量过少,可能会把一些相似度较低的节点划分到同一子图中,给后续的原型对比学习带来干扰. 当K=7时,推荐性能达到最佳. 如果K再继续变大,将导致子图个数过多,相似的节点嵌入分散在不同的子图上,无法充分利用节点之前的潜在关联.
图 5
图 5 不同子图数量对推荐模型性能的影响
Fig.5 Effect of different number of subgraphs on recommendation model performance
3.4.2. 对比任务权重
GICL中超参数
图 6
图 6 对比任务权重对推荐模型性能的影响
Fig.6 Effect of comparison task weights on recommendation model performance
3.5. 嵌入可视化分析
为了进一步探究GICL性能提高的原因,分别将GICL和NCL在ML-1M数据集上学到的项目嵌入进行可视化,如图7所示. 具体地,将项目的嵌入表示映射到二维空间,再使用高斯核密度估计计算项目特征的分布情况. 对比2种模型的分布情况可知,GICL学到的嵌入表现出更均匀的分布,能够更好地建模多样化的用户偏好和项目特征;也表明GICL能够更充分地利用二部图中的潜在信息,提高推荐性能和泛化能力.
图 7
图 7 不同推荐模型的项目嵌入分布的可视化
Fig.7 Visualization of item embedding distributions for different recommendation models
4. 结 语
本研究针对图协同过滤任务中的噪声和数据稀疏问题,提出融合全局信息和对比学习的图神经网络推荐模型. 该模型利用奇异值分解,在嵌入初始化和最终计算的阶段强调全局结构的降噪;构建对比学习任务,在训练阶段强调局部邻域的节点关联性. 在4个数据集上的模型性能对比实验结果表明,所提模型的性能优于主流推荐方法,且训练效率有所提升. 所提模型只针对用户和物品是否存在交互进行建模,忽略了用户点击、收藏和购买等不同行为之间的差异,难以挖掘深层次的用户意图. 未来计划进一步研究更精细化的图协同过滤模型,对不同的隐式反馈行为进行区分,以提升推荐的准确性和可靠性.
参考文献
Recent developments in recommender systems: a survey
[J].
A collaborative filtering recommender systems: survey
[J].DOI:10.1016/j.neucom.2024.128718 [本文引用: 1]
Matrix factorization techniques for recommender systems
[J].
SR-HetGNN: session-based recommendation with heterogeneous graph neural network
[J].DOI:10.1007/s10115-023-01986-4 [本文引用: 1]
MD-GCCF: multi-view deep graph contrastive learning for collaborative filtering
[J].DOI:10.1016/j.neucom.2024.127756 [本文引用: 1]
Prototypical graph contrastive learning
[J].DOI:10.1109/TNNLS.2022.3191086 [本文引用: 1]
The MovieLens datasets: history and context
[J].
EMPNet: an extract-map-predict neural network architecture for cross-domain recommendation
[J].DOI:10.1007/s11280-024-01240-z [本文引用: 1]
/
| 〈 |
|
〉 |

