浙江大学学报(工学版), 2026, 60(1): 90-98 doi: 10.3785/j.issn.1008-973X.2026.01.009

计算机技术

知识嵌入增强的对比推荐模型

谢涛,, 葛慧丽,, 陈宁, 汪晓锋, 李延松, 黄晓峰

1. 中国计量大学 信息工程学院,浙江 杭州 310018

2. 浙江省科技项目管理服务中心,浙江 杭州 310006

3. 杭州电子科技大学 通信工程学院,浙江 杭州 310018

Knowledge embedding-enhanced contrastive recommendation model

XIE Tao,, GE Huili,, CHEN Ning, WANG Xiaofeng, LI Yansong, HUANG Xiaofeng

1. College of Information Engineering, China Jiliang University, Hangzhou 310018, China

2. Zhejiang Science and Technology Project Management Service Center, Hangzhou 310006, China

3. School of Communication Engineering, Hangzhou Dianzi University, Hangzhou 310018, China

通讯作者: 葛慧丽,女,研究员. oricid.org/0009-0004-1769-2194. E-mail:429362862@qq.com

收稿日期: 2025-03-4  

基金资助: 国家重点研发计划资助项目(2024YFB3312600);浙江省“领雁”研发攻关计划资助项目(2024C01107).

Received: 2025-03-4  

Fund supported: 国家重点研发计划资助项目(2024YFB3312600);浙江省“领雁”研发攻关计划资助项目(2024C01107).

作者简介 About authors

谢涛(2001—),男,硕士生,从事图神经网络、推荐系统研究.orcid.org/0009-0000-3040-5840.E-mail:taoxie@cjlu.edu.cn , E-mail:taoxie@cjlu.edu.cn

摘要

为了缓解对比推荐模型因过度依赖结构扰动进行数据增强而导致性能下降的问题,提出知识嵌入增强的对比推荐模型,利用知识图谱的嵌入表征来引导对比学习过程,从而实现高效的物品推荐. 通过关系感知的知识聚合模块捕获知识图谱中的异质性关系信息以获得知识嵌入,利用图神经网络编码器从用户-项目交互图中获取实体表征;通过基于知识增强的对比推荐模块将知识嵌入融入用户交互图的表征学习中,强化用户和项目嵌入表示,从而提升推荐精度. 在企业服务、书籍和新闻3个数据集上进行大量实验,结果表明,所提模型在处理稀疏数据集时具有明显优势. 相较于基线模型KGAT、CKAN,所提模型在Recall和NDCG指标上的平均提升幅度超过20%;与性能优越的KGIN、KGCL、MGDCF等对比学习模型相比,实现了平均10%的性能增益,说明所提方法具有全面的性能优势.

关键词: 推荐系统 ; 知识图谱 ; 对比学习 ; 数据增强 ; 数据稀疏

Abstract

A new contrastive recommendation model was proposed to alleviate the performance degradation caused by the excessive reliance on structural perturbations for data augmentation. The embedding representations of knowledge graphs were leveraged to guide the contrastive learning process for highly effective item recommendation. A relation-aware knowledge aggregation module was designed to capture heterogeneous relational information from the knowledge graphs, thereby obtaining knowledge embeddings. A graph neural network encoder was utilized to learn entity representations from the user-item interaction graphs. The knowledge embeddings were incorporated into the representation learning through a knowledge-enhanced contrastive recommendation module, to enhance the user and item embeddings and improve the recommendation accuracy. Extensive experiments were conducted on three datasets of enterprise services, books, and news. The results demonstrated that the proposed model had significant advantages in handling sparse datasets. Compared with the baseline models KGAT and CKAN, the proposed model achieved average improvements of over 20% on the Recall and NDCG metrics. Compared with the state-of-the-art contrastive learning models such as KGIN, KGCL and MGDCF, an average performance gain of 10% was realized. These results demonstrate that the proposed method has comprehensive performance advantages.

Keywords: recommendation system ; knowledge graph ; contrastive learning ; data augmentation ; data sparsity

PDF (1067KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

谢涛, 葛慧丽, 陈宁, 汪晓锋, 李延松, 黄晓峰. 知识嵌入增强的对比推荐模型. 浙江大学学报(工学版)[J], 2026, 60(1): 90-98 doi:10.3785/j.issn.1008-973X.2026.01.009

XIE Tao, GE Huili, CHEN Ning, WANG Xiaofeng, LI Yansong, HUANG Xiaofeng. Knowledge embedding-enhanced contrastive recommendation model. Journal of Zhejiang University(Engineering Science)[J], 2026, 60(1): 90-98 doi:10.3785/j.issn.1008-973X.2026.01.009

随着互联网的快速发展,数据量呈爆炸式增长,用户面临着严重的信息过载问题. 如何从海量信息中筛选出用户感兴趣的需求内容,已成为当前在线信息平台亟待解决的难题. 推荐系统作为解决信息过载并提高用户体验的关键技术,得到了国内外学者的广泛关注[1-2]. 推荐系统旨在利用机器学习、数据挖掘和人工智能技术,根据用户历史行为、偏好和上下文信息,帮助用户过滤掉不相关的信息,自动匹配用户可能感兴趣的内容或服务. 该技术被广泛应用于电子商务[3]、个性化广告[4]、社交媒体[5]以及仪器设备等创新资源推荐[6]等众多领域,极大地提升了用户体验和平台的商业价值.

推荐系统的核心是个性化推荐算法. 目前常用的推荐算法主要包括基于协同过滤的推荐、基于内容的推荐和混合推荐3类[2]. 其中,协同过滤算法[7]从相似性度量出发,利用用户历史行为数据对用户进行建模以预测用户的偏好,因而在推荐领域中被广泛应用. 近年来,协同过滤技术从矩阵分解转向神经网络实体嵌入[8-10],但是仍然面临数据稀疏性的挑战[11]. 为此,知识图谱(knowledge graph, KG)作为辅助信息被整合到推荐系统中,通过编码项目间的语义相关性来增强用户和项目表示[12]. 大量基于知识图谱的推荐方法涌现出来[2,13],从早期的基于转换的实体嵌入方法(如TransE[14]、TransR[15])逐步发展到了以基于路径的模型[2,16-17]为代表的方法.

基于知识图谱的推荐方法主要包括3类:基于路径的方法、基于嵌入的方法和基于图神经网络的方法. 基于路径的方法[16-18]通过提取知识图谱中的元路径来挖掘实体间的潜在关联性,从而推断用户偏好. 但是该方法通常高度依赖于特定的元路径定义,且难以提取知识图谱中的高阶语义信息.基于嵌入的方法[2,19-23]主要利用知识图谱来获得实体向量表示,以丰富用户或物品的语义表征并发掘用户偏好,生成既高效又具备可解释性的推荐结果.

图神经网络(graph neural network, GNN)[24]作为新兴的图表示学习技术备受关注. 基于GNN的推荐方法通常利用图中多跳节点,以递归方式执行信息传播并捕获长距离关系,来推断用户对特定物品的偏好,典型模型包括KGCN[25]、KGAT[26]和KGIN[27]等. 其主要优势在于:能够通过显式反馈(如评分)和隐式反馈(如浏览历史)建模用户和物品之间的交互,同时捕捉物品之间的相似性及用户社交关系. Wang等[25]将图卷积网络(GCN)扩展到知识图谱推荐系统中,提出知识图谱卷积模型KGCN,通过聚合知识图谱中的项目邻域信息来更新项目特征表示并扩展用户的长期偏好. 为了突出用户-项目交互中的协作信号,Wang等[28]提出协作知识感知注意力模型,通过异构传播策略结合协作信号与知识关联,以提高推荐系统的性能. Hu等[29]将GCN等价为Markov过程,提出Markov图扩散协同过滤模型来泛化基于GCN的推荐模型. 为了提高推荐性能并保证解释的多样性,Ma等[30]提出将用户-项目交互图和知识图谱集成到异质图中,并利用GCN进行实体表征学习,解决了知识图中多跳路径可能导致的错误传播问题. 该类方法结合了基于路径和基于嵌入的方法的优点,在推荐系统中能够进行更精准的个性化推荐. 图神经网络提升了知识图谱推荐的质量和可解释性,但是其有效性依赖于高质量的知识图谱,且容易受到噪声干扰[13]. 在真实场景中,知识图谱往往是稀疏且充满噪声的,表现为长尾实体分布. 此外,基于图神经网络的推荐模型大多采用监督学习范式,通常需要大量标记数据进行模型训练.

对于监督信号稀缺的问题,自监督学习技术是一种高效的解决方案[31]. 在推荐系统中,自监督对比学习可以通过对比正、负样本对来学习用户和物品的嵌入表示,并通过最大化正样本对之间的相似性并最小化负样本对之间的相似性,学习到更加具有区分性的嵌入表示. 基于对比式自监督学习的推荐模型[32-34]通过预设自监督任务学习数据内在的监督信号,提升推荐系统的性能和泛化能力. 例如,Wu等[33]采用节点丢弃、边丢弃及随机游走等多种图增强策略来生成用户-项目图的多个视图,通过最大化目标节点的不同视图间的一致性来增强实体嵌入表示. 类似地,Xie等[34]提出3种不同的数据增强方法,包括裁剪、掩码和重排,以构建用户序列的不同视图,并将对比学习模型引入序列推荐任务.

图随机增强策略可能会丢弃重要信息,加剧不活跃用户的数据稀疏问题. 因此,一些基于对比学习的推荐系统替代方案,如HCCF[35]和NCL[36],设计启发式策略来构建嵌入对比的视图. 尽管上述方法有效,但是在很大程度上依赖于视图生成器,难以适应不同的推荐任务. 此外,Yu等[37]深入分析对比学习中的多种数据增强策略,发现优化对比损失的过程是影响对比推荐模型性能的关键,而非图结构增强,进而提出基于噪声增强的对比推荐模型. 然而,随机噪声的引入可能会对推荐系统的鲁棒性产生不利影响.

针对以上问题,提出知识图谱增强的对比推荐模型,通过挖掘知识图谱中的实体与关系信息构建高质量的知识嵌入,替代传统的随机扰动式数据增强,从而在提升样本语义一致性的同时,避免因无效扰动导致的性能下降问题. 此外,模型引入关系感知的知识聚合机制,充分捕捉异质关系信息,增强了用户与物品表示的语义表达能力. 通过将知识嵌入融合至对比学习过程中,不仅提升了模型的推荐准确性,而且使模型在面对稀疏数据时展现出了更强的稳定性与泛化能力.

1. 模型设计

为了克服现有技术的不足,提出知识嵌入增强的对比推荐模型,整体结构如图1所示. 该模型主要包括2个关键组成部分:知识聚合模块与基于知识增强的对比推荐模块. 1)知识聚合模块根据用户的兴趣从知识图谱中提取有用信息以获得项目嵌入. 具体来说,其采用基于图注意力机制的知识聚合方法来捕捉知识图谱中实体间的语义关系. 2)在基于知识图谱的对比推荐模块中,通过跨层对比策略将提取的信息融合到用户和项目的嵌入表示中并进行对比学习,同时根据用户和项目嵌入来推断用户偏好. 该过程不仅有助于聚集丰富的语义信息,而且能够有效处理交互图中的异质性关系,从而提升交互效果. 模型通过在训练集上进行训练来优化嵌入表示,进而使用优化的用户和物品嵌入来预测用户对特定项目的偏好程度,从而获得更有效的实体嵌入表示. 这种方法不仅为用户提供了更稳健的推荐,而且在数据稀疏或用户交互较少的情况下仍能保持较高的推荐质量.

图 1

图 1   知识增强的对比推荐模型整体框架

Fig.1   Overall framework of knowledge embedding-enhanced contrastive recommendation model


1.1. 任务描述与模型架构

假定推荐场景中有包含m个用户的集合U={$ {u_1},{u_2}, \cdot \cdot \cdot ,{u_m} $}和包含n个项目的集合I={$ {i_1},{i_2}, \cdot \cdot \cdot ,{i_n} $},用户与项目之间的交互关系用交互矩阵表示,记为$ \boldsymbol{Y}=\left[{y}_{ui}\right]\in {\mathbf{R}}^{m\times n} $. 其中,Y是根据用户的隐式反馈定义得到的;$ {y}_{ui}=1 $表示用户u对项目i进行了点击、浏览或购买等操作,视为交互,$ {y}_{ui}=0 $表示用户与项目之间没有交互关系. 同时,根据项目与实体之间的关系构建知识图谱G,其由实体-关系-实体三元组(h, r, t)构成,其中hrt分别表示头实体、关系和尾实体. 在给定用户-项目交互矩阵Y以及知识图谱G的条件下,推荐算法的目标是根据历史交互记录推断用户u对未交互过的项目i的偏好程度,并据此进行排序,得到个性化推荐结果,其目标函数为

$ \hat{y}_{u i}=F(u, i \mid {\boldsymbol{\theta}}, \boldsymbol{Y}, G) . $

式中:$ {\hat y_{ui}} $表示用户u对项目i的偏好程度,$ {\hat y_{ui}} $值越大表示用户越有可能对该项目感兴趣,交互的可能性就越高;${\boldsymbol{\theta}} $为函数F的模型参数.

1.2. 知识聚合

知识图谱通常包含丰富的语义信息,有助于模型更好地理解物品之间的深层联系. 因此,利用知识图谱来增强实体的嵌入表示,以便在后续的对比推荐过程中更准确地理解用户的兴趣和需求. 为了获得知识图谱中的项目嵌入表示,采用关系感知的知识嵌入层,以捕获知识图谱连接结构中的关系异质性. 为了克服在知识图谱上手动设计路径生成的局限性,将实体和关系的上下文依赖信息投射到具有参数化注意力矩阵的特定表示中,并通过在知识图谱G中建立项目与其连接实体间的消息聚合机制,最终生成基于知识感知的项目嵌入. 对于项目$ i $,该异质注意力聚合过程可以形式化地表示为

$ \boldsymbol{x}_i=\operatorname{mean}\left(\boldsymbol{x}_i, \displaystyle\sum_{e \in N_i} \alpha\left(e, \boldsymbol{r}_{e, i}, i\right) \boldsymbol{x}_e\right), $

$ \alpha(e, \boldsymbol{r}_{e, i}, i)=\frac{\exp \left(\boldsymbol{r}_{e, i}^{\mathrm{T}} \boldsymbol{W}\left[\boldsymbol{x}_e \| \boldsymbol{x}_i\right]\right)}{\displaystyle\sum_{e \in N_i} \exp \left(\boldsymbol{r}_{e, i}^{\mathrm{T}} \boldsymbol{W}\left[\boldsymbol{x}_e \| \boldsymbol{x}_i\right]\right)} . $

式中:$ {\boldsymbol{x}}_{i}\in {\mathbf{R}}^{d} $$ {\boldsymbol{x}}_{e}\in {\mathbf{R}}^{d} $分别为项目i和实体e的嵌入向量,$ {\boldsymbol{r}}_{e,i} $表示实体之间的关系的嵌入,$ {N}_{i} $为项目i在知识图谱G中相邻实体的集合,$ \alpha (e,{\boldsymbol{r}}_{e,i},i) $表示不同相邻实体的重要性. 为了计算$ \alpha (e,{\boldsymbol{r}}_{e,i},i) $,首先将项目嵌入向量与其对应的邻居实体嵌入向量连接起来,然后利用用户定义的参数权重矩阵$ {\boldsymbol{W}}\in {\mathbf{R}}^{d\times 2d} $对输入的项目和实体表示进行加权处理[32]. 最后,将得到的向量乘以$ {\boldsymbol{r}}_{e,i}^{\mathrm{T}} $,通过Softmax函数计算获得不同邻居实体的重要性.

1.3. 基于知识增强的对比推荐

在传统的对比推荐模型中,基于随机结构扰动的图增强方法如节点丢弃、边丢弃及随机游走,常对用户-项目交互图创建不同视图,以进行对比学习. 然而,这种随机结构扰动通常会导致有用信息的丢失,同时引入噪声. 最近的研究表明,在一定范围内调节学习到的表征的一致性,能够增强对比推荐模型的性能. 因此,提出基于知识增强的对比推荐模型,将知识图谱中提取的项目嵌入表示直接融合到用户-项目交互图的表征中,并采用跨层对比策略来有效地提升模型性能. 同时,该模型不需要创建不同视图来分别获取用户和项目的嵌入表示,降低了模型的复杂度.

具体地,利用图编码器对用户-项目交互图进行编码,以获得用户和项目的表示,同时将从知识图谱中提取的项目嵌入表示叠加到图编码器的不同层来增强用户和项目节点的表示学习过程. 考虑到从知识图谱中聚合的信息仅是对项目特征的补充,为了保持用户嵌入的一致性,在用户嵌入中引入随机噪声${\boldsymbol{ \varDelta}} $作为干扰项. 将此随机噪声与知识图谱中提取的信息$ \boldsymbol{x} $进行结合,经过归一化处理后作为用户-项目交互图编码过程中的辅助信息,以增强表示学习过程. 该辅助信息表示为

$ \boldsymbol{X}=\operatorname{normalize}\;({\boldsymbol{\varDelta}} \| \boldsymbol{x}) . $

为了对用户和物品节点进行有效编码,模型采用高效且轻量级的图神经网络LightGCN作为编码器,学习用户-项目交互图的节点表征. 该模型的消息传递过程[10]定义为

$ \boldsymbol{e}_u^{(l+1)}=\displaystyle\sum_{i \in N_u} \dfrac{\boldsymbol{e}_i^{(l)}}{\sqrt{\left|N_u\right|\left|N_i\right|}},\quad \boldsymbol{e}_i^{(l+1)}=\displaystyle\sum_{u \in N_i} \dfrac{\boldsymbol{e}_u^{(l)}}{\sqrt{\left|N_i\right|\left|N_u\right|}} . $

式中:$ {\boldsymbol{e}}_{u}^{\left(l\right)} $$ {\boldsymbol{e}}_{i}^{\left(l\right)} $分别为第$ l $层图卷积层中用户$ u $和项目$ i $的嵌入表示,$ {N}_{u} $$ {N}_{i} $分别为用户$ u $交互的项目集合和项目$ i $连接的用户集合. 在基于图神经网络的协同过滤架构中,通过堆叠多个图卷积层,可以有效地捕捉和利用高阶协作信号.

编码器中每个卷积层都将知识嵌入信息(如式(3)中的$ \alpha (e,{\boldsymbol{r}}_{e,i},i) $)添加至学习到的用户和项目的嵌入表示中,从而得到用于对比学习的嵌入表示:

$ \boldsymbol{E}=\boldsymbol{E}+\boldsymbol{X} \cdot \operatorname{sign}\;(\boldsymbol{E}) \cdot \mu. $

式中:$ \mu $为常数,$ \boldsymbol{E}\in {\mathbf{R}}^{\left|N\right|\times d} $表示用户-项目交互图中节点的嵌入,$ \left|N\right| $为节点数,$ d $为嵌入维度.

模型经过上述过程将得到项目嵌入的向量$ {\boldsymbol{e}}_{i} $和用户的嵌入向量$ {\boldsymbol{e}}_{u} $,然后通过计算$ {\boldsymbol{e}}_{i} $$ {\boldsymbol{e}}_{u} $之间的内积来估算用户u对物品i的偏好程度.

1.4. 模型训练与预测

所提推荐模型通过将知识嵌入引入到对比学习任务中而完成推荐. 因此,为了进一步优化模型,需要在训练集上对模型进行训练. 模型训练阶段主要涉及2个损失函数约束,即推荐损失$ {L}_{\mathrm{r}\mathrm{e}\mathrm{c}} $和对比损失$ {L}_{\mathrm{c}\mathrm{l}} $. 其中,推荐损失用于衡量训练过程中基于用户历史行为生成的推荐结果与用户实际行为之间的偏差;对比损失和$ {L}_{2} $损失作为辅助任务的组成部分,其效果会受到超参数调整的影响.

对于推荐任务,采用贝叶斯个性化排名(BPR)损失[27]作为推荐损失函数:

$ L_{\mathrm{rec}}=-\displaystyle\sum_{(u, i) \in B} \ln \left(\delta\left(\boldsymbol{e}_u^{\mathrm{T}} \boldsymbol{e}_i-\boldsymbol{e}_u^{\mathrm{T}} \boldsymbol{e}_j\right)\right) . $

式中:$ \delta $为sigmoid函数,$ {\boldsymbol{e}}_{u} $为用户嵌入,$ {\boldsymbol{e}}_{i} $为与用户u交互的项目i的嵌入,$ {\boldsymbol{e}}_{j} $为随机抽样项目的嵌入,B为迷你批次中的训练样本集合.

对于对比学习任务,采用InfoNCE损失来计算不同视图之间的损失,具体形式为

$ L_{\mathrm{cl}}= \displaystyle \sum_{H \in B}-\ln \;\dfrac{\exp \left(s\left({\boldsymbol{z}}_H^1,{\boldsymbol{z}}_H^2\right) / \tau\right)}{ \displaystyle {\sum}_{H^{\prime} \in B, H^{\prime} \neq H} \exp \left(s\left({\boldsymbol{z}}_H^1, {\boldsymbol{z}}_{H^{\prime}}^2\right) / \tau\right)}. $

式中:${\boldsymbol{z}}_H^1 $${\boldsymbol{z}}_H^2 $分别表示2个卷积视图,对应编码器均值和第1层卷积结果;H$H' $B中的不同节点;s (·)为余弦相似度函数;$\tau $为超参数.

为了防止模型在训练过程中出现过拟合现象,引入$ {L}_{2} $正则化策略. 因此,模型的总损失函数具体表示为

$ L=L_{\mathrm{rec}}+\lambda_1 L_{\mathrm{cl}}+\lambda_2\|{\boldsymbol{\theta}} \|^2_2 . $

式中:$ \lambda_1 $为控制对比损失在总损失中权重的超参数,$ \lambda_2$为控制$L_2 $正则化强度的超参数.

2. 实验与分析

为了验证所提模型的有效性,在真实数据集上进行一系列实验. 同时,将其与其他代表性的推荐算法进行比较,以评估模型的性能表现. 所提模型使用Pytorch学习框架,python环境为3.8,硬件配置包括型号为AMD EPYC 7F52的CPU,32 GB容量的DDR4 RAM内存,型号为NVIDIA GeForce RTX 3090的GPU以及Window 11专业版操作系统.

2.1. 数据集

采用3个开源的真实数据集进行评测: Yelp2018、Amazon-Book和MIND. 这些数据集不仅展现了不同程度的交互稀疏性,而且包含多样化的知识图谱特征. 其中,Yelp2018数据集包含用户对企业服务的评分和评论信息,Amazon-Book数据集涵盖用户对书籍物品资源的评分和评论,MIND数据集记录了用户对新闻文章的点击和浏览行为. 表1展示了这些数据集的主要统计信息,包括用户数(m)、项目数(n)、交互数量(Ninter)、交互密度(D)、知识图谱关系数(Nr)、知识图谱实体数(Ne)以及知识图谱三元组数(Nt).

表 1   数据集统计信息

Tab.1  Dataset Statistics

数据集mnNinterD/%NrNeNt
Yelp201845 91945 5381 183 6100.064247 472869 603
Amazon-Book70 67924 915846 4340.053929 714686 516
MIND300 00048 9572 545 3270.0290106 500746 270

新窗口打开| 下载CSV


2.2. 基线模型

将所提模型与下面5种代表性的推荐模型进行比较.

1) KGAT[26]:该模型设计了知识感知协作图注意力机制,可以在传播过程中区分相邻节点之间的相关性.

2) CKAN[28]:该模型通过协作传播明确编码协作信号,并将其与知识关联信息相结合,以解决基于知识图谱的推荐系统中的稀疏性和冷启动问题.

3) KGCL[32]:该模型通过降低知识图谱噪声和改进知识感知表示来提高推荐系统的质量.

4) KGIN[27]:该模型是增强的知识图谱感知推荐模型,旨在识别用户的潜在意图,并利用关系路径感知聚合机制进一步聚合用户意图-项目元组和知识图谱三元组之间的关系路径.

5) MGDCF[29]:该模型将GNN简化为马尔可夫过程,通过马尔可夫过程平衡节点间的距离,进而构建图模型的上下文特征.

2.3. 评估指标

采用召回率(Recall@K)和归一化折损累计增益(NDCG@K)这2个指标来评估模型性能,分别从项目覆盖度和排序质量2个维度验证Top-K推荐结果的有效性,其中K为每个用户得到的推荐项目数,取值为{10, 20, 30}. 实验结果反映了测试数据集上所有用户的平均表现.

召回率是衡量推荐系统查全率的关键指标,其度量了在所有真实正例中,推荐系统正确预测为正例的样本比例,计算公式为

$ \text { Recall }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} . $

式中:TP和FN分别为系统正确预测为正例的正样本数目和错误预测为负例的正样本数目.

归一化折损累计收益(NDCG)是衡量推荐系统推荐质量的指标,通过考虑推荐项的相关性以及其在推荐列表中的排名来进行评分. NDCG综合了物品的相关性及其在推荐列表中的位置,从而提供了关于推荐列表整体排序质量的量化度量.

$ \mathrm{NDCG}=\frac{1}{n} \sum_{i=1}^N \frac{2^{\mathrm{rel}_i}-1}{\log _2\;(i+1)}. $

式中:$ \mathrm{r}\mathrm{e}{\mathrm{l}}_{i} $为用户对第i个项目的评分,$ {\mathrm{log}}_{2}\;(i+1) $为位置递减权重.

2.4. 实验结果

通过在Yelp2018、Amazon-Book和MIND这3个数据集上对各模型进行性能比较,验证所提模型在Top-K推荐任务中的有效性. 实验结果如表23所示. 其中,性能最优的结果以粗体显示,次优结果用下划线标出.

表 2   基于Recall@K指标的推荐算法性能比较

Tab.2  Performance comparison of recommendation algorithms based on Recall@K metrics

模型Recall@10Recall@20Recall@30
Yelp2018Amazon-BookMINDYelp2018Amazon-BookMINDYelp2018Amazon-BookMIND
KGAT[26]0.036 50.089 20.051 80.067 50.139 00.090 70.082 70.163 80.120 3
KGIN[27]0.043 50.106 20.065 20.071 20.143 60.104 40.094 90.177 40.134 3
CKAN[28]0.039 10.087 80.059 70.068 90.138 00.099 10.085 30.162 20.128 5
KGCL[32]0.045 50.098 90.067 60.075 60.149 60.107 30.099 90.179 50.135 9
MGDCF[29]0.041 20.104 60.067 10.079 10.155 00.106 60.102 90.181 30.136 9
本研究方法0.051 90.115 20.071 90.085 80.169 10.115 10.112 30.203 70.141 2

新窗口打开| 下载CSV


表 3   基于NDCG@K指标的推荐算法性能比较

Tab.3  Performance comparison of recommendation algorithms based on NDCG@K metrics

模型NDCG@10NDCG@20NDCG@30
Yelp2018Amazon-BookMINDYelp2018Amazon-BookMINDYelp2018Amazon-BookMIND
KGAT[26]0.035 70.061 50.031 70.043 20.073 90.044 20.051 80.081 50.051 6
KGIN[27]0.036 80.062 40.039 50.046 20.074 80.052 70.053 40.082 90.059 1
CKAN[28]0.036 40.060 80.036 80.044 10.072 00.049 90.052 60.081 20.056 5
KGCL[32]0.038 50.063 20.042 50.049 30.079 30.055 10.057 30.087 40.062 0
MGDCF[29]0.035 10.068 50.042 20.051 60.083 10.056 40.061 80.091 20.062 4
本研究方法0.044 10.074 80.055 10.056 30.091 90.070 10.065 00.100 60.077 3

新窗口打开| 下载CSV


表2可以看出,在3个基准数据集上,所提方法的召回率Recall@10、Recall@20、Recall@30相对于KGAT模型分别平均提高了36.7%、25.2%和25.8%,且所提方法的性能始终优于其他基于图神经网络的基线模型. 在基于知识图谱的推荐方法中,KGCL模型的表现也相当具有竞争力. 这归因于KGCL利用对比学习方法增强了知识图谱的嵌入表示,进而提升了推荐效果. 但是KGCL的表现仍然不如直接作用于用户交互图的对比学习方法,这是由于知识图谱本身包含较多噪声,直接使用知识图谱的不同视图进行对比学习存在一定的局限性. 因此,所提方法克服了这一缺陷,有效提升了性能.

同样地,如表3所示,所提方法在3个数据集上的NDCG@10、NDCG@20和NDCG@30相比于KGAT平均提升了39.7%、37.8%和32.9%,且在这3个数据集上的Top-K推荐任务中均取得了最优的结果. 与最优的基于知识图谱卷积的推荐模型CKAN相比,所提方法的NDCG@10、NDCG@20和NDCG@30分别提升了31.3%、31.9%和28.1%,这是由于CKAN在多层图卷积操作中出现了过度平滑的问题,导致性能下降. MGDCF相比于CKAN能够有效解决过度平滑问题,在Yelp2018数据集上3个Recall指标平均提高了13.6%,但同时过多无用信息的引入导致NDCG指标缓慢下降. 与先进推荐模型KGCL相比,所提方法在3个数据集上的性能均得到了稳步提升,尤其在MIND数据集上,所提方法相较于KGCL表现出最显著的性能提升,NDCG指标的平均提升幅度达到了27.2%. 这主要因为所提方法采用了知识嵌入增强的对比推荐思路,而非直接通过知识图谱进行对比学习,在有效降低模型复杂度的同时提高了模型的推荐质量.

2.5. 参数敏感性分析

进一步分析模型关键参数对性能的影响. 所提方法主要涉及的超参数包括:在构建知识图谱时采样的相邻节点数N,对比学习的调节系数$ {\lambda }_{1} $,防止模型过拟合的L2正则化系数$ {\lambda }_{2} $,以及用于控制知识提取过程的参数$ \mu $. 其中N$ {\lambda }_{1} $的设定对模型的学习效果和最终推荐结果具有决定性作用,而模型对$ {\lambda }_{2} $的敏感性较低,采用经验值$ {10}^{-5} $即可在抑制过拟合与维持模型性能之间取得较好的平衡. 因此,主要围绕N$ {\lambda }_{1} $对模型性能的影响展开讨论.

首先,对比知识图谱中不同采样节点数N对结果的影响,如表4所示. 可以观察到,在3个数据集上将采样数从4增加到8时,部分数据集上的推荐性能有明显提升. 但是进一步增加采样数并未带来性能提升,有时甚至会降低性能. 另外,考虑到增加节点数带来的计算成本,选用8个相邻节点的采样数作为模型的默认设置,能够在保证效果的同时兼顾计算效率.

表 4   不同邻居节点采样数量N对模型性能的影响

Tab.4  Impact of different neighbor node sampling numbers N on model performance

NRecall@20NDCG@20
Yelp2018Amazon-BookMINDYelp2018Amazon-BookMIND
40.085 20.167 20.112 30.055 90.090 80.068 1
80.085 70.166 90.111 50.056 10.090 70.068 0
160.085 30.166 90.112 40.056 20.090 70.068 0
320.085 10.167 80.112 20.056 10.090 80.067 9

新窗口打开| 下载CSV


其次,探究超参数$ {\lambda }_{1} $$ \mu $的不同组合对实验结果的影响. 具体地,$ {\lambda }_{1} $取值范围为{0.01, 0.05, 0.10, 0.20, 0.50, 1.00},$ \mu $的取值范围为{0, 0.01, 0.05, 0.10, 0.20, 0.50}. 在调节这2个参数的过程中,图卷积层数固定为2. 实验结果如图23所示. 通过分析发现,所提方法在$ {\lambda }_{1} $=0.05、0.10或0.20时在3个数据集上表现出最佳性能. 同时,当$ \mu = $0时,模型性能明显下降,这表明加入知识聚合信息能够显著增强推荐的稳定性.

图 2

图 2   超参数λ1μ对模型Recall@20的影响

Fig.2   Impact of hyperparameters λ1 and μ on model’s Recall@20


图 3

图 3   超参数λ1μ对模型NDCG@20的影响

Fig.3   Impact of hyperparameters λ1 and μ on model’s NDCG@20


2.6. 消融实验

为了进一步分析模型中各组件的作用,设计消融实验,实验结果详见表5. 其中,w/o KRA表示移除知识图谱增强组件后的模型变体,w/o CCL表示移除对比学习组件后的模型变体. 可以看出,本研究方法在2种评估指标(Recall@20、NDCG@20)上均优于所有模型变体. 具体来说,本研究方法相较于w/o CCL有显著的性能提升,证明了跨层对比策略对模型性能改进的关键作用;与w/o KRA的对比表明知识表示层面的增强嵌入能够有效利用知识图谱中的异构关系,进一步提高了推荐的准确率. 该实验结果证实了提出的模型中每个组件都对整体性能有重要贡献. 知识图谱增强和跨层对比学习组件都显著提升了推荐质量,与理论假设一致.

表 5   所提模型中各组件的消融实验结果

Tab.5  Ablation experimental results of each component in proposed model

模型Recall@20NDCG@20
Yelp2018Amazon-BookMINDYelp2018Amazon-BookMIND
w/o KRA0.077 80.144 40.100 40.051 10.077 80.068 1
w/o CCL0.069 50.141 10.090 90.045 10.073 90.068 0
本研究方法0.085 80.169 10.115 10.056 30.091 90.070 1

新窗口打开| 下载CSV


2.7. 模型时间性能分析

通过时间性能分析来全面评估本研究方法在时间效率上的优势. 图4中(a)和(b)分别展示了不同模型的批处理时间和总运行时间,其中tbat为批处理时间,ttot为总运行时间. 可以看出,无论是批处理时间还是总运行时间,所提方法在3种数据集上均显著低于其他基线模型,充分验证了模型设计在优化计算效率方面的有效性.

图 4

图 4   不同模型的时间性能对比

Fig.4   Comparison of temporal performance of different models


3. 结 语

提出知识嵌入增强的对比推荐模型,旨在克服传统对比学习方法在处理稀疏数据时面临的性能瓶颈. 与现有的依赖随机扰动进行数据增强的对比推荐方法不同,引入知识图谱嵌入作为引导信息,增强对比学习的语义一致性与结构稳定性,从而在保护原始图语义结构的基础上提升模型对用户与项目表示的判别能力. 此外,设计融合了关系感知聚合机制与跨层对比策略的增强框架,不仅充分挖掘了异质知识信息,而且提升了对多粒度语义关系的建模能力. 在多个真实数据集上的实验结果表明,所提模型在推荐准确性和计算效率方面均显著优于现有主流方法,尤其在稀疏数据场景下展现出更强的适应能力. 提出的知识增强对比推荐框架在理论方法与实际应用层面都展现了一定的创新性,为稀疏数据下推荐系统性能的提升提供了解决思路与技术路径.

参考文献

KO H, LEE S, PARK Y, et al

A survey of recommendation systems: recommendation models, techniques, and application fields

[J]. Electronics, 2022, 11 (1): 141

DOI:10.3390/electronics11010141      [本文引用: 1]

秦川, 祝恒书, 庄福振, 等 基于知识图谱的推荐系统研究综述[J]. 中国科学: 信息科学, 2020, 50(7): 937–956.

[本文引用: 5]

QIN Chuan, ZHU Hengshu, ZHUANG Fuzhen, et al. A survey on knowledge graph-based recommender systems [J]. Scientia Sinica: Informationis, 2020, 50(7): 937–956.

[本文引用: 5]

ABDUL HUSSIEN F T, RAHMA A M S, ABDUL WAHAB H B

Recommendation systems for E-commerce systems an overview

[J]. Journal of Physics: Conference Series, 2021, 1897 (1): 12024

DOI:10.1088/1742-6596/1897/1/012024      [本文引用: 1]

DELDJOO Y, SCHEDL M, CREMONESI P, et al

Recommender systems leveraging multimedia content

[J]. ACM Computing Surveys, 2021, 53 (5): 1- 38

[本文引用: 1]

郭向星, 周魏, 杨正益, 等

基于自监督图卷积和注意力机制实现隐式反馈降噪的社交推荐

[J]. 电子学报, 2025, 53 (1): 151- 162

[本文引用: 1]

GUO Xiangxing, ZHOU Wei, YANG Zhengyi, et al

Denoising implicit feedback with self-supervised graph convolution network and attention mechanism for social recommendation

[J]. Acta Electronica Sinica, 2025, 53 (1): 151- 162

[本文引用: 1]

王文虎, 张德祥, 李晓鹏

基于移动互联网的大型仪器设备推荐系统的研究

[J]. 信息与电脑: 理论版, 2021, 33 (20): 128- 132

[本文引用: 1]

WANG Wenhu, ZHANG Dexiang, LI Xiaopeng

Research on large-scale instrument and equipment recommendation system based on mobile Internet

[J]. China Computer & Communication, 2021, 33 (20): 128- 132

[本文引用: 1]

PERIFANIS V, EFRAIMIDIS P S

Federated neural collaborative filtering

[J]. Knowledge-Based Systems, 2022, 242: 108441

DOI:10.1016/j.knosys.2022.108441      [本文引用: 1]

SEDHAIN S, MENON A K, SANNER S, et al. AutoRec: autoencoders meet collaborative filtering [C]// Proceedings of the 24th International Conference on World Wide Web. Florence: ACM, 2015: 111–112.

[本文引用: 1]

CHEN J, ZHANG H, HE X, et al. Attentive collaborative filtering: multimedia recommendation with item-and component-level attention [C]// Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. Tokyo: ACM, 2017: 335–344.

HE X, DENG K, WANG X, et al. LightGCN: simplifying and powering graph convolution network for recommendation [C]// Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.]: ACM, 2020: 639–648.

[本文引用: 2]

WU L, HE X, WANG X, et al

A survey on accuracy-oriented neural recommendation: from collaborative filtering to information-rich recommendation

[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35 (5): 4425- 4445

[本文引用: 1]

HUANG C, XU H, XU Y, et al. Knowledge-aware coupled graph neural network for social recommendation [C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. [S.l.]: AAAI Press, 2021: 4115–4122.

[本文引用: 1]

赵晔辉, 柳林, 王海龙, 等

知识图谱推荐系统研究综述

[J]. 计算机科学与探索, 2023, 17 (4): 771- 791

DOI:10.3778/j.issn.1673-9418.2205052      [本文引用: 2]

ZHAO Yehui, LIU Lin, WANG Hailong, et al

Survey of knowledge graph recommendation system research

[J]. Journal of Frontiers of Computer Science and Technology, 2023, 17 (4): 771- 791

DOI:10.3778/j.issn.1673-9418.2205052      [本文引用: 2]

SANG L, XU M, QIAN S, et al

Knowledge graph enhanced neural collaborative recommendation

[J]. Expert Systems with Applications, 2021, 164: 113992

DOI:10.1016/j.eswa.2020.113992      [本文引用: 1]

BORDES A, USUNIER N, GARCIA-DURÁN A, et al. Translating embeddings for modeling multi-relational data [C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Lake Tahoe: Curran Associates Inc, 2013: 2787–2795.

[本文引用: 1]

YU X, REN X, SUN Y, et al. Personalized entity recommendation: a heterogeneous information network approach [C]// Proceedings of the 7th ACM International Conference on Web Search and Data Mining. New York: ACM, 2014: 283–292.

[本文引用: 2]

HU B, SHI C, ZHAO W X, et al. Leveraging meta-path based context for top-N recommendation with a neural co-attention model [C]// Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. London: ACM, 2018: 1531–1540.

[本文引用: 1]

ZHAO H, YAO Q, LI J, et al. Meta-graph based recommendation fusion over heterogeneous information networks [C]// Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Halifax: ACM, 2017: 635–644.

[本文引用: 1]

HUANG L, GUAN C R, HUANG Z W, et al

Broad recommender system: an efficient nonlinear collaborative filtering approach

[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2024, 8 (4): 2843- 2857

DOI:10.1109/TETCI.2024.3378599      [本文引用: 1]

YANG D, GUO Z, WANG Z, et al. A knowledge-enhanced deep recommendation framework incorporating GAN-based models [C]// Proceedings of the IEEE International Conference on Data Mining. Singapore: IEEE, 2018: 1368–1373.

DONG Y, CHAWLA N V, SWAMI A. Metapath2vec: scalable representation learning for heterogeneous networks [C]// Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Halifax: ACM, 2017: 135–144.

WANG H, ZHANG F, WANG J, et al. RippleNet: propagating user preferences on the knowledge graph for recommender systems [C]// Proceedings of the 27th ACM International Conference on Information and Knowledge Management. Torino: ACM, 2018: 417–426.

MA W, ZHANG M, CAO Y, et al. Jointly learning explainable rules for recommendation with knowledge graph [C]// Proceedings of the World Wide Web Conference. San Francisco: ACM, 2019: 1210–1221.

[本文引用: 1]

GAO C, ZHENG Y, LI N, et al

A survey of graph neural networks for recommender systems: challenges, methods, and directions

[J]. ACM Transactions on Recommender Systems, 2023, 1 (1): 1- 51

[本文引用: 1]

WANG H, ZHAO M, XIE X, et al. Knowledge graph convolutional networks for recommender systems [C]// Proceedings of the World Wide Web Conference. San Francisco: ACM, 2019: 3307–3313.

[本文引用: 2]

WANG X, HE X, CAO Y, et al. KGAT: knowledge graph attention network for recommendation [C]// Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Anchorage: ACM, 2019: 950–958.

[本文引用: 4]

WANG X, HUANG T, WANG D, et al. Learning intents behind interactions with knowledge graph for recommendation [C]// Proceedings of the Web Conference 2021. Ljubljana: ACM, 2021: 878–887.

[本文引用: 5]

WANG Z, LIN G, TAN H, et al. CKAN: collaborative knowledge-aware attentive network for recommender systems [C]// Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.]: ACM, 2020: 219–228.

[本文引用: 4]

HU J, HOOI B, QIAN S, et al

MGDCF: distance learning via Markov graph diffusion for neural collaborative filtering

[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36 (7): 3281- 3296

DOI:10.1109/TKDE.2023.3348537      [本文引用: 4]

MA T, HUANG L, LU Q, et al

KR-GCN: knowledge-aware reasoning with graph convolution network for explainable recommendation

[J]. ACM Transactions on Information Systems, 2023, 41 (1): 1- 27

[本文引用: 1]

YU J, YIN H, XIA X, et al

Self-supervised learning for recommender systems: a survey

[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36 (1): 335- 355

DOI:10.1109/TKDE.2023.3282907      [本文引用: 1]

YANG Y, HUANG C, XIA L, et al. Knowledge graph contrastive learning for recommendation [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 1434–1443.

[本文引用: 5]

WU J, WANG X, FENG F, et al. Self-supervised graph learning for recommendation [C]// Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.]: ACM, 2021: 726–735.

[本文引用: 1]

XIE X, SUN F, LIU Z, et al. Contrastive learning for sequential recommendation [C]// Proceedings of the IEEE 38th International Conference on Data Engineering. Kuala Lumpur: IEEE, 2022: 1259–1273.

[本文引用: 2]

XIA L, HUANG C, XU Y, et al. Hypergraph contrastive collaborative filtering [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 70–79.

[本文引用: 1]

LIN Z, TIAN C, HOU Y, et al. Improving graph collaborative filtering with neighborhood-enriched contrastive learning [C]// Proceedings of the ACM Web Conference. Lyon: ACM, 2022: 2320–2329.

[本文引用: 1]

YU J, XIA X, CHEN T, et al

XSimGCL: towards extremely simple graph contrastive learning for recommendation

[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36 (2): 913- 926

[本文引用: 1]

/