浙江大学学报(工学版), 2024, 58(8): 1717-1727 doi: 10.3785/j.issn.1008-973X.2024.08.018

计算机技术、控制工程

源域数据增强与多兴趣细化迁移的跨域推荐模型

尹雅博,, 朱小飞,, 刘议丹

重庆理工大学 计算机科学与工程学院,重庆 400054

Cross-domain recommendation model based on source domain data augmentation and multi-interest refinement transfer

YIN Yabo,, ZHU Xiaofei,, LIU Yidan

College of Computer Science and Engineering, Chongqing University of Technology, Chongqing 400054, China

通讯作者: 朱小飞,男,教授. orcid.org/0000-0001-8239-7176. E-mail: zxf@cqut.edu.cn

收稿日期: 2023-11-19  

基金资助: 国家自然科学基金资助项目 (62141201);重庆市自然科学基金资助项目 (CSTB2022NSCQ-MSX1672);重庆市教育委员会科学技术研究计划资助项目 (KJZD-M202201102);重庆理工大学研究生教育高质量发展行动计划资助项目(gzlcx20233203).

Received: 2023-11-19  

Fund supported: 国家自然科学基金资助项目(62141201);重庆市自然科学基金资助项目(CSTB2022NSCQ-MSX1672);重庆市教育委员会科学技术研究计划资助项目(KJZD-M202201102);重庆理工大学研究生教育高质量发展行动计划资助项目(gzlcx20233203).

作者简介 About authors

尹雅博(1999—),男,硕士生,从事推荐系统的研究.orcid.org/0009-0008-6597-6932.E-mail:yinyabo@stu.cqut.edu.cn , E-mail:yinyabo@stu.cqut.edu.cn

摘要

针对跨域推荐任务中源域用户交互数据不丰富所导致的兴趣偏好建模困难问题,以及多个兴趣之间的关联被忽略问题,提出源域数据增强与多兴趣细化迁移的跨域推荐模型. 该模型引入源域数据增强策略,为每个用户在源域中生成经过去噪处理的辅助序列,缓解用户在源域中的交互数据稀疏问题,获得更丰富的用户兴趣偏好. 使用双序列多兴趣提取模块和多兴趣细化迁移模块,完成兴趣提取与多个兴趣的细化迁移. 在基于3个公开跨域推荐评测任务的对比实验中,与最优的基线相比,提出方法的平均MAE降低了22.86%,平均RMSE降低了19.65%,取得了最优的性能表现,证明了提出方法的有效性.

关键词: 冷启动问题 ; 跨域推荐 ; 数据增强 ; 多兴趣提取 ; 多兴趣细化迁移

Abstract

A cross-domain recommendation model that utilizes source domain data augmentation and multi-interest refinement transfer was proposed in order to address the issues of difficulty in modeling interest preferences in cross-domain recommendation tasks caused by the lack of user interaction data in the source domain, as well as the problem of ignored associations between multiple interests. A source-domain data augmentation strategy was introduced, generating a denoised auxiliary sequence for each user in the source domain. Then the sparsity of user interaction data in the source domain was alleviated, and enriched user interest preferences were obtained. The interest extraction and multi-interest refinement transfer were implemented by utilizing the dual sequence multi-interest extraction module and the multi-interest refinement transfer module. Three publicly cross-domain recommendation evaluation tasks were conducted. The proposed model achieved the best performance compared with the best baseline, reducing the average MAE by 22.86% and the average RMSE by 19.65%, which verified the effectiveness of the method.

Keywords: cold-start problem ; cross-domain recommendation ; data augmentation ; multi-interest extraction ; multi-interest refinement transfer

PDF (2143KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

尹雅博, 朱小飞, 刘议丹. 源域数据增强与多兴趣细化迁移的跨域推荐模型. 浙江大学学报(工学版)[J], 2024, 58(8): 1717-1727 doi:10.3785/j.issn.1008-973X.2024.08.018

YIN Yabo, ZHU Xiaofei, LIU Yidan. Cross-domain recommendation model based on source domain data augmentation and multi-interest refinement transfer. Journal of Zhejiang University(Engineering Science)[J], 2024, 58(8): 1717-1727 doi:10.3785/j.issn.1008-973X.2024.08.018

随着推荐系统[1-4]被广泛应用在各种互联网场景,人们能够轻松地从海量信息中筛选自己感兴趣的内容. 由于用户的交互行为往往被分散到了不同的领域中,如在线购物、新闻、视频等领域,导致推荐系统中的领域内数据稀疏问题,如何在用户交互稀疏场景下对用户进行推荐引起了广泛的关注. 冷启动问题,即对在一个领域内完全没有交互信息的用户进行推荐,是一个巨大的挑战.

跨域推荐(cross-domain recommendation,CDR)是通过将用户较丰富的源域(source domain)交互信息迁移到目标域(target domain)来进行推荐,它在解决目标域中的数据稀疏问题与冷启动问题上被证明是有效的方案[5-9]. 在之前的工作[5-8]中,主要通过学习映射函数,将交互丰富领域中的用户表示向量映射到目标领域,其中代表性工作为EMCDR[6]. 在最近的工作PTUPCDR[9]中,考虑到通用的映射函数往往无法充分地迁移领域内用户的兴趣偏好,Zhu等[9]首次提出个性化的跨域迁移策略,取得了令人满意的效果.

尽管之前的跨域推荐方法已经在解决冷启动问题方面已经取得了较大的成功,但是在这些工作中忽略了用户在源域中的交互信息可能不丰富这一事实. 以被广泛使用的亚马逊(Amazon)数据集为例,在Book域中交互长度≤10的用户占全部用户的68.4%,在Movie域中交互长度≤10的用户占全部用户的71.7%. 尽管与冷启动的目标域相比,源域中用户的交互数据相对丰富,但源域中多数用户的交互商品数量存在严重的不足. 过于稀疏的用户交互数据可能会导致无法有效地建模用户的兴趣偏好,从而在跨域迁移的过程中取得次优的结果.

此外,直观上来讲,一个用户的兴趣偏好存在多个兴趣且多个兴趣之间可能还存在关联,例如一个用户可能同时表现出对科幻与浪漫2个种类电影的喜爱. 在之前的基于映射的跨域推荐方法[5-9]中,仅在源域中为用户提取单个兴趣偏好嵌入表示来进行跨域推荐,这可能会影响跨域推荐中用户兴趣建模的准确性.

针对之前工作中存在的问题,本文提出源域数据增强与多兴趣细化迁移的跨域推荐模型(cross-domain recommendation model based on source domain data augmentation and multi-interest refinement transfer,CDR-ART)来解决上述问题. 针对源域中用户交互数据稀疏的问题,本文提出应用于跨域推荐场景的源域数据增强策略,通过为用户生成额外的辅助序列,显式地挖掘用户的潜在兴趣. 对于用户存在的多个相互关联的兴趣,本文使用双序列多兴趣提取模块和多兴趣细化迁移模块,实现提取多个兴趣与进行用户表示的多兴趣细化迁移. 最终在3个公开跨域推荐评测任务中,CDR-ART的性能优于现存的基线模型,证明了本文提出方法的有效性。

1. 相关工作

1.1. 跨域推荐

近年来,越来越多的研究人员关注跨域推荐研究. Singh等[10]提出通过建模跨领域的全局用户嵌入表示来解决目标域中用户的冷启动问题. Pan等[11]提出的整合迁移学习的协同过滤(transfer learning in collaborative filtering,CST)通过使用源域中用户的嵌入表示作为目标域用户嵌入表示的初始表征,并进行微调,提高目标域中对用户推荐的准确性. 在Man等[6]的工作中指出,通过2个域中的共享用户来学习用户嵌入表示的映射函数,能够有效地实现跨域知识迁移. Zhu等[8]提出在学习映射函数的同时,可以通过考虑不同领域中用户交互的稀疏程度来指导训练过程. Cao等[12]通过探索不同领域中相似的商品,从商品的角度来解决跨域推荐问题. 在Li等[13]提出的深度双向迁移的跨域推荐(deep dual transfer cross domain recommendation,DDTCDR)中指出之前的工作没有考虑用户和商品的双向潜在关系,提出双元学习策略,实现了领域与领域之间的对偶迁移. 在Zhu等[9]提出的用户偏好个性化迁移的跨域推荐(personalized transfer of user preferences for cross-domain recommendation,PTUPCDR)工作中,对源域中的用户交互序列进行个性化偏好的提取,并使用元网络将用户兴趣偏好从源域迁移到目标域,实现了个性化的跨域推荐. 在自监督信号挖掘及利用上,Zhao等[14]通过引入自监督学习来挖掘跨领域的用户对商品的兴趣不变性,实现跨域场景下用户兴趣对齐. Xie等[15]提出对比跨域推荐模型(contrastive cross-domain recommendation,CCDR),通过引入对比学习,更好地实现表征学习及跨域迁移.

随着跨域推荐的发展,一些工作开始探索将跨域推荐扩展到多个目标域场景. Cao等[16]通过显式地解耦多个领域中共享的信息及不同领域中的特定信息,提升多个领域的推荐效果. Li等[17]提出引入自监督对比自编码器(self-supervised contrastive autoencoder)来提取与领域无关的用户兴趣偏好,实现对多个目标域推荐任务的辅助.

1.2. 多兴趣推荐

由于用户的兴趣偏好往往不是单一且独立的,仅用一个嵌入表示来表示用户的多个兴趣,会对兴趣表达的准确性造成限制. 在MIND[18]中使用动态路由机制[19](dynamic routing mechanism),从用户的多个行为中提取多个兴趣. Cen等[20]指出胶囊网络不是唯一提取多兴趣的方式,提出使用注意力机制来实现多兴趣提取. 在UMI[21]中对动态路由机制进行改进,将用户的属性融合进入兴趣提取的过程. 在MINER[22]中通过将多兴趣的方法应用到新闻推荐领域,从一个用户的交互新闻序列中使用注意力机制建模多个兴趣偏好,并使用目标感知的注意力网络[23](target-aware attention network),根据不同的候选新闻生成最终的评分.

2. 模型简介

提出的CDR-ART的整体模型框架如图1所示. 该模型包括以下3个主要的部分. 1)双序列多兴趣提取模块,用以提取用户交互商品序列及辅助序列中蕴含的多个兴趣偏好. 2)多兴趣细化迁移模块,用以实现用户多个兴趣与用户嵌入的融合及细化迁移. 3)评分预测模块,采用自适应的聚合策略来生成最终对候选商品的预测评分.

图 1

图 1   CDR-ART模型的整体框架

Fig.1   Overall framework of CDR-ART model


2.1. 问题定义

跨域推荐通过迁移用户在源域中丰富交互信息,对目标域中的商品进行推荐. 在跨域推荐任务中,源域的用户集合记为$ {U^{\mathrm{s}}} = \{ {u_1},{u_2},\cdots,{u_{|U|}}\} $,商品集合记为$ {V^{\mathrm{s}}} = \{ {v_1},{v_2},\cdots,{v_{|V|}}\} $,其中$ {u_i} \in {U^{\mathrm{s}}} $为源域用户集合中的第$ i $个用户,$ {v_j} \in {V^{\mathrm{s}}} $为源域商品集合中的第$ j $个商品. 对应的用户与商品评分矩阵记为$ {{\boldsymbol{R}}^{\mathrm{s}}} \in {{\bf{R}}^{|U| \times |V|}} $,其中$ {r_{ij}} \in {{\boldsymbol{R}}^{\mathrm{s}}} $为源域中用户$ {u_i} $对商品$ {v_j} $的评分. 同理,在目标域中的用户集合记为$ {U^{\mathrm{t}}} $,目标域中的商品集合记为$ {V^{\mathrm{t}}} $,用户对商品的评分记为$ {{\boldsymbol{R}}^{\mathrm{t}}} $. 本文中映射函数的学习是基于源域与目标域中的重叠用户来进行的,其中重叠用户记为$ {U^{\mathrm{o}}} = {U^{\mathrm{s}}} \cap {U^{\mathrm{t}}} $. 源域与目标域中的商品不存在重合,即$ {V^{\mathrm{s}}} \cap {V^{\mathrm{t}}} = \phi $. 跨域推荐中的冷启动用户$ u \in {U^{\mathrm{c}}} $为在源域中存在商品交互但在目标域中不存在商品交互的用户. 本文的主要目标是利用冷启动用户$ u \in {U^{\mathrm{c}}} $较丰富的源域交互信息,对目标域中的商品进行推荐.

2.2. 单域模型预训练与辅助序列生成

在实现跨域推荐之前,对源域与目标域中的用户与商品进行预训练,获得2个域中用户与商品的嵌入表示,为每个冷启动用户生成辅助序列. 整体的流程如图2所示.

图 2

图 2   单域预训练与用户辅助序列生成

Fig.2   Single domain pre-training and user auxiliary sequence generation


2.2.1. 单域模型预训练

在进行跨域推荐之前,对源域和目标域中用户和商品的嵌入表示进行建模. 对于任意的基于隐藏因子[1]的推荐模型而言,每个用户和商品均会被建模为嵌入表示. 由于本文讨论的重点是实现跨域推荐,不关注单域的基础模型选择,参照Zhu等[9]的工作,使用矩阵分解方法作为单域基础模型. 在单域模型预训练阶段,对模型参数$ {{\boldsymbol{\theta }}_g} $的优化损失可以表示为

$ {L} = \frac{1}{{|{{\boldsymbol{R}}^{{g}}}|}}\sum\limits_{{r_{ij}} \in {{\boldsymbol{R}}^{{g}}}} {{{({r_{ij}} - f_{{{\boldsymbol{\theta }}_g}}^g(u_i^{},v_j^{}))}^2}.} $
(1)

式中:$f_{{{\boldsymbol{\theta }}_g}}^g $表示对源域与目标域的基础模型进行预训练, g为源域基础模型s或目标域基础模型t;$ {{\boldsymbol{\theta }}_g} $为可训练参数;$ {r_{ij}} $为用户$ {u_i} $对商品$ {v_j} $的真实评分,用$ f_{{{\boldsymbol{\theta }}_g}}^g({u_i},{v_j}) $来生成用户$ {u_i} $对商品$ {v_j} $的评分预测.

通过对上述损失进行优化,可以获得源域中第i个用户与第j个商品的嵌入表示$ {{\boldsymbol{u}}_i^{\rm{s}}} \in {{\bf{R}}^d} $$ {{\boldsymbol{v}}_j^{\rm{s}}} \in {{\bf{R}}^d} $,其中$ d $为嵌入表示的维度. 同理,遵循相同的过程,可以获得目标域中的第i个用户与第j个商品嵌入表示,分别记为$ {{\boldsymbol{u}}_i^{\mathrm{t}}} \in {{\bf{R}}^d} $$ {{\boldsymbol{v}}_j^{\mathrm{t}}} \in {{\bf{R}}^d} $.

2.2.2. 辅助序列生成

在进行跨域推荐的过程中,之前的工作通过将用户在源域中较丰富的交互信息迁移到目标域中,生成目标域的用户嵌入表示. 用户在源域中过少的交互数量会直接影响跨域推荐的性能. 受GraphDA[24]的启发,通过挖掘用户源域中潜在的交互商品来实现源域交互商品的增强,从而更好地建模用户兴趣偏好.

给定用户$ {u_i} \in {U^{\mathrm{s}}} $$ {u_i} $在源域中的商品交互序列$ S_{{u_i}}^{\mathrm{s}} = \{ v_{{t_1}}^{\mathrm{s}},v_{{t_2}}^{\mathrm{s}},\cdots,v_{{t_n}}^{\mathrm{s}}\} $,其中$n$为交互商品的数量. 辅助序列生成的第一个步骤是在源域中为用户$ {u_i} $检索到最有可能的$ k $个潜在的交互商品,记为$ G_{{u_i}}^{\mathrm{s}} = \{ v_1^{\mathrm{s}},\cdots,v_k^{\mathrm{s}}\} $.

对于用户$ {u_i} $,其在源域中的潜在交互商品可以通过$ {u_i} $对商品的评分进行筛选. 如果用户$ {u_i} $对源域中的某个商品评分越高,则表示用户$ {u_i} $对这个商品进行交互的可能性越大. 具体来说,通过使用$ f_{{{\boldsymbol{\theta }}_{\mathrm{s}}}}^{\mathrm{s}} $实现用户$ {u_i} $对源域商品的评分预测,检索出前$ k $个最高评分的商品,将其视为用户$ {u_i} $在源域中的潜在交互商品. 计算过程定义如下:

$ G_{{u_i}}^{\mathrm{s}} = \{ v_1^{\mathrm{s}},\cdots,v_k^{\mathrm{s}}\} = {\mathrm{topk}}\;({\kern 1pt} {\kern 1pt} f_{{{\boldsymbol{\theta }}_{\mathrm{s}}}}^{\mathrm{s}}({{u}}_i,{V^{\mathrm{s}}})){\kern 1pt} {\kern 1pt} . $
(2)

式中:$ f_{{\theta _{\mathrm{s}}}}^{\mathrm{s}}({{u}}_i,{V^{\mathrm{s}}}) $$ {u_i} $对源域所有商品的评分,${\mathrm{ topk}}\;({\kern 1pt} {\kern 1pt} ) $表示选择评分最高的前$ k $个商品.

与用户真实发生的对商品交互相比,筛选出的$ k $个潜在交互商品序列中可能存在更多的噪音,影响跨域推荐中用户兴趣建模的准确性. 本文提出去噪选择方法,对用户潜在交互商品中的噪音进行过滤. 具体来说,通过使用用户$ {u_i} $在源域中的真实交互商品序列$ S_{{u_i}}^{\mathrm{s}} $,筛选潜在交互商品序列$ G_{{u_i}}^{\mathrm{s}} $中的非噪音交互商品. 第$ i $个非噪音交互$ {\boldsymbol{p}}_i^{\mathrm{s}} $的计算过程如下:

$ {\boldsymbol{p}}_i^{\mathrm{s}} = \sum\nolimits_{l = 1}^k {{w_{il}}({\kern 1pt} {\kern 1pt} {{\boldsymbol{W}}_{\mathrm{s}}}{\boldsymbol{v}}_l^{\mathrm{s}}){\kern 1pt} {\kern 1pt} } . $
(3)

式中:$ {{\boldsymbol{W}}_{\mathrm{s}}} \in {{\bf{R}}^{d \times d}} $为可训练的参数;$ {\boldsymbol{v}}_l^{\mathrm{s}} $为第$ l $个潜在交互商品的嵌入表示;$ {w_{il}} $为第$ i $个真实交互商品对第$ l $个潜在交互商品的注意力得分,

$ {w_{il}} = \frac{{{\mathrm{exp}}\;({b_{il}})/\tau }}{{\displaystyle \sum\nolimits_{m = 1}^k {({\mathrm{exp}}\;({b_{im}})/\tau } )}}\;, $
(4)

$ {b_{il}} = ({{\boldsymbol{W}}_{\mathrm{q}}}{\boldsymbol{v}}_i^{\mathrm{s}}){\kern 1pt} \cdot {({{\boldsymbol{W}}_{\mathrm{k}}}{\boldsymbol{v}}_l^{\mathrm{s}})}\;. $
(5)

式中:$ \tau $为温度系数,$ {{\boldsymbol{W}}_{\mathrm{q}}} \in {{\bf{R}}^{d \times d}} $$ {{\boldsymbol{W}}_{\mathrm{k}}} \in {{\bf{R}}^{d \times d}} $为可训练参数. 使用的$ \tau $越小,最终获得的商品$ v_i^{} $对这$ k $个潜在交互商品的注意力分布越接近one-hot分布. 通过使用较小的$ \tau $,实现对选择非噪音商品过程的近似.

$ {\boldsymbol{p}}_i^{\mathrm{s}} $为由真实交互商品$ v_i^{} $$ k $个潜在交互商品去噪后聚合生成的非噪音交互嵌入表示,$ {\boldsymbol{P}}_{{{{u}}_{{i}}}}^{{{\mathrm{s}}}} = [ {\boldsymbol{p}}_1^{\mathrm{s}},{\boldsymbol{p}}_2^{\mathrm{s}},\cdots,{\boldsymbol{p}}_n^{\mathrm{s}}] $为由所有真实商品交互过滤出的非噪音交互组成的嵌入表示矩阵. $ {\boldsymbol{p}}_i^{\mathrm{s}} $为由多个商品的嵌入表示聚合生成的,可能不存在真实的商品与之对应.

2.3. 双序列多兴趣提取

在基于映射的跨域推荐[9]方法中,仅在用户对商品的交互序列中提取用户兴趣偏好向量,将这个兴趣偏好融合到跨域推荐中. 一个用户的兴趣偏好往往存在多个且多个兴趣之间存在关联,将多个兴趣偏好聚合到一个向量表示中, 可能会损害用户多个兴趣的准确表达. 为了解决上述问题, 提出使用双序列多兴趣提取模块,从用户在源域中的交互序列和生成的辅助序列中分别提取多个兴趣,实现将源域中用户多个兴趣嵌入表示的解耦.

在多兴趣提取上,基于注意力的多兴趣提取已经被证明是有效的方法[21, 25]. 该方法通过引入可学习的注意力权重实现用户交互商品的软聚类,提取用户蕴含在交互商品中的多个兴趣偏好. 具体来说,对于用户$ {u_i} $在源域中的交互商品序列$ S_{{u_i}}^{\mathrm{s}} = \{ v_{{t_1}}^{\mathrm{s}},v_{{t_2}}^{\mathrm{s}},\cdots, v_{{t_n}}^{\mathrm{s}}\} $$ S_{{u_i}}^{\mathrm{s}} $对应的嵌入表示矩阵记为$ {\boldsymbol{H}}_{{u_i}}^{\mathrm{s}} \in {{\bf{R}}^{d \times n}} $. $ {u_i} $的辅助嵌入表示矩阵为$ {\boldsymbol{P}}_{{u_i}}^{\mathrm{s}} = [ {\boldsymbol{p}}_1^{\mathrm{s}},{\boldsymbol{p}}_2^{\mathrm{s}},\cdots, {\boldsymbol{p}}_n^{\mathrm{s}}] \in {{\bf{R}}^{d \times n}} $.

为了从用户$ {u_i} $的交互嵌入表示矩阵$ {\boldsymbol{H}}_{{u_i}}^{\mathrm{s}} $中提取$ M $个兴趣嵌入表示,计算多兴趣注意力矩阵$ {\boldsymbol{A}} \in {{\bf{R}}^{M \times n}} $. 多兴趣注意力矩阵$ {\boldsymbol{A}} $为用户所有的交互商品在每个兴趣中所占据的权重,最后$ {\boldsymbol{A}} $将被用于多个兴趣嵌入的自适应聚合. 多兴趣注意力矩阵$ {\boldsymbol{A}} $的计算如下:

$ {\boldsymbol{A}} = {\mathrm{softmax}}\;\;({{\boldsymbol{W}}_{\text{b}}}{\kern 1pt} {\kern 1pt} {\mathrm{tanh}}\;({{\boldsymbol{W}}_{\mathrm{a}}}{\boldsymbol{H}}_{{u_i}}^{\mathrm{s}}))\;. $
(6)

式中:$ {{\boldsymbol{W}}_{\mathrm{a}}} \in {{\bf{R}}^{{d_1} \times d}} $$ {{\boldsymbol{W}}_{\mathrm{b}}} \in {{\bf{R}}^{M \times {d_1}}} $均为可训练的参数,$ {\mathrm{tanh}}\;({\kern 1pt} {\kern 1pt} ) $为激活函数. 最终的$ M $个兴趣嵌入表示$ {\boldsymbol{E}}_{{u_i}}^{\mathrm{s}} $计算如下:

$ {\boldsymbol{E}}_{{u_i}}^{\mathrm{s}} = {\boldsymbol{AH}}_{{u_i}}^{\mathrm{s}}\;. $
(7)

式中:$ {\boldsymbol{E}}_{{u_i}}^{\mathrm{s}} \in {{\bf{R}}^{M \times d}} $为从真实交互商品嵌入表示序列中提取出的$ M $个兴趣嵌入表示.

对于用户$ {u_i} $的辅助嵌入表示矩阵$ {\boldsymbol{P}}_{{u_i}}^{\mathrm{s}} $,遵循相同的过程,从辅助嵌入表示矩阵$ {\boldsymbol{P}}_{{u_i}}^{\mathrm{s}} $中提取$ M $个兴趣偏好嵌入表示,记为$ {\boldsymbol{E}}_{{u_i}}^{\mathrm{p}} \in {{\bf{R}}^{M \times d}} $. $ {\boldsymbol{E}}_{{u_i}}^{\mathrm{s}} $$ {\boldsymbol{E}}_{{u_i}}^{\mathrm{p}} $被组合作为最终用户在源域中完整的多兴趣表示,记为$ {{\boldsymbol{E}}_{{u_i}}} \in {{\bf{R}}^{(2 M) \times d}} $. $ {{\boldsymbol{E}}_{{u_i}}} $的计算如下:

$ {{\boldsymbol{E}}_{{u_i}}} = [{\boldsymbol{E}}_{{u_i}}^{\mathrm{sT}};{\boldsymbol{E}}_{{u_i}}^{\mathrm{pT}}]^{\mathrm{T}}{\kern 1pt} \;. $
(8)

式中:$[{\kern 1pt} \,;\,\,]$表示2个矩阵的拼接操作.

由于交互嵌入矩阵$ {\boldsymbol{H}}_{{u_i}}^{\mathrm{s}} $和辅助嵌入矩阵$ {\boldsymbol{P}}_{{u_i}}^{\mathrm{s}} $在同一个向量空间中,通过使用共享参数的多兴趣提取器,降低优化的复杂度.

2.4. 多兴趣细化迁移

根据多兴趣提取的过程可知,用户的多个兴趣的提取是相互独立的,但这样的提取过程忽略了兴趣与兴趣之间可能存在的关联. 为了在跨域迁移中更好地细化用户的兴趣,受FRNet[26]的启发,本文提出多兴趣细化迁移模块,在实现用户嵌入表示跨域映射的同时,融合多个被细化的兴趣.

具体来说,通过将用户$ {u_i} $在源域中的用户嵌入表示$ {\boldsymbol{u}}_i^{\mathrm{s}} \in {{\bf{R}}^d} $$ {{\boldsymbol{E}}_{{u_i}}} \in {{\bf{R}}^{(2 M) \times d}} $中的每个兴趣进行拼接并融合,获得融合了多个不同兴趣偏好的用户嵌入表示$ {\boldsymbol{U}}_i^{\mathrm{s}} \in {{\bf{R}}^{(2 M) \times d}} $. $ {\boldsymbol{U}}_i^{\mathrm{s}} $的计算过程为

$ {\boldsymbol{U}}_i^{\mathrm{s}} = ({{\boldsymbol{E}}_{{u_i}}}||{\rm{broadcast}}\;({\boldsymbol{u}}_i^{\mathrm{s}})){\kern 1pt} {{\boldsymbol{W}}_{\mathrm{c}}}.$
(9)

式中:broadcast表示向量的广播操作,$ || $表示向量的拼接操作,${{\boldsymbol{W}}_{\mathrm{c}}} \in {{\bf{R}}^{(2d) \times d}} $为可训练参数.

针对兴趣与兴趣之间关联被忽略的问题,通过引入自注意层(self-attention layer)作为兴趣交互层,将融合了不同兴趣偏好的用户嵌入进行充分地交互. 为了避免融合了不同兴趣偏好的用户嵌入表示在细化的过程中被过度地平滑,通过使用残差连接来实现在感知其他兴趣进行细化的同时,保持兴趣之间的差异性.

$ {\boldsymbol{U}}_i^{\mathrm{r}} = {\mathrm{Attention}}\;({\boldsymbol{U}}_i^{\mathrm{s}})+{\boldsymbol{U}}_i^{\mathrm{s}}\;. $
(10)

式中:$ {\mathrm{Attention}}({\kern 1pt} {\kern 1pt} ) $表示自注意层,$ {\boldsymbol{U}}_i^{\mathrm{r}} \in {{\bf{R}}^{(2 M) \times d}} $表示用户$ {u_i} $融合了其多个细化兴趣的嵌入表示.

使用前馈神经网络(FFN),将用户$ {u_i} $多个细化兴趣的嵌入表示映射到目标域中,其公式表达如下:

$ {\boldsymbol{\bar U}}_i^{\mathrm{t}} = [{{\boldsymbol{\bar u}}_1},{{\boldsymbol{\bar u}}_2},\cdots,{{\boldsymbol{\bar u}}_{2 M}}]^{\mathrm{T}} = {\mathrm{FFN}}\;({\boldsymbol{U}}_i^{\mathrm{r}})\;. $
(11)

式中:$\bar {\boldsymbol{U}}_i^{\rm{t}} \in {{\bf{R}}} ^{2M \times d}$表示用户ui被映射到目标域中的多个细化兴趣嵌入表征.

2.5. 评分预测与模型优化
2.5.1. 评分预测

对于目标域用户$ {u_i} $的多个细化兴趣嵌入表征$ {\boldsymbol{\bar U}}_i^{\mathrm{t}} $,通过目标域的基础模型$ f_{{{\boldsymbol{\theta}} _{\mathrm{t}}}}^{\mathrm{t}} $,计算$ {\boldsymbol{\bar U}}_i^{\mathrm{t}} $中每个融合了不同兴趣的用户嵌入对候选商品$ {{v}}_j^{} $的预测得分$ {{\boldsymbol{s}}_{ij}} \in {{\bf{R}}^{2 M}} $.

$ {{\boldsymbol{s}}_{ij}} = f_{{\theta _{\mathrm{t}}}}^{\mathrm{t}}({\boldsymbol{\bar U}}_i^{\mathrm{t}},{\boldsymbol{v}}_j^{\mathrm{t}})\;. $
(12)

使用权重聚合[22-23](weighted && sum)的策略来生成冷启动用户$ {u_i} $对目标域候选商品$ {v_j} $的最终评分$ {\hat r_{ij}} $.

$ {\hat r_{ij}} = {{\boldsymbol{w}}_{ij}}\cdot{{{\boldsymbol{s}}_{ij}}}\;, $
(13)

$ {{\boldsymbol{w}}_{ij}} = {\mathrm{softmax}}\;({\boldsymbol{\bar U}}_i^{\mathrm{t}}{({{\boldsymbol{W}}_{\mathrm{e}}}{\boldsymbol{v}}_j^{\mathrm{t}})})\;. $
(14)

式中:$ {{\boldsymbol{w}}_{ij}} \in {{\bf{R}}^{2 M}} $$ {{\boldsymbol{W}}_{\mathrm{e}}} \in {{\bf{R}}^{d \times d}} $为可训练参数.

2.5.2. 模型优化

在模型的参数优化上,采用任务导向的优化方式来训练优化整个模型,具体的优化目标损失如下:

$ {L}({r_{ij}},{\hat r_{ij}}) = \frac{1}{{|{{R}}_{\mathrm{o}}^{\mathrm{t}}|}}\sum\limits_{{r_{ij}} \in {{R}}_{\mathrm{o}}^{\mathrm{t}}}^{} {({r_{ij}} - \hat r_{ij}^{}} {)^2}\;. $
(15)

式中:$ {{R}}_{\mathrm{o}}^{\mathrm{t}} $为源域与目标域中的重叠用户对目标域中商品的评分集合.

3. 实验分析

3.1. 实验设置

3.1.1. 数据集和评价指标

为了比较模型的性能,参照Zhu等[9]的工作,采用真实世界中公开的用户对商品的评分数据集Amazon,评估方法的有效性. 整个数据集中包含24个领域的数据,选择其中3个领域Movies_and_TV(Movie)、CDs_and_Vinyl(Music)和Books(Book)的数据,构造跨域推荐评测任务. 在数据的预处理上,交互数据小于5条的用户将会被移除. 关于跨域推荐评测任务的定义及数据详细统计信息如表1所示.

表 1   任务定义及数据统计

Tab.1  Task definition and data statistics

任务领域用户数量商品数量交互评分数量
源域目标域源域目标域重叠源域目标域源域目标域
任务1MovieMusic123 96075 25818 03150 05264 4431 697 5331 097 592
任务2BookMovie603 668123 96037 388367 98250 0528 898 0411 697 533
任务3BookMusic603 66875 25816 738367 98264 4438 898 0411 097 592

新窗口打开| 下载CSV


用户对商品的评分为1~5分,为了公平起见,在实验中使用的指标与Zhu等[9]的工作保持一致,使用平均绝对误差(mean absolute error, MAE)和均方根绝对误差(root mean square error, RMSE)来评估不同模型的性能. 指标的计算方式如下:

$ {\mathrm{MAE}} = \frac{1}{N}\sum\limits_{i = 1}^N {|{y_i} - \hat y_i^{}} |\;, $
(16)

$ {\mathrm{RMSE}} = \sqrt {\frac{1}{N}\sum\limits_{i = 1}^N {({y_i} - \hat y_i^{}} {)^2}} \;. $
(17)

式中:$ {{N}} $为测试样本的总数量,$ {y_i} $为用户对商品的真实评分,$ \hat y_i^{} $为模型预测的用户对商品的评分.

3.1.2. 实施细节和基线模型

在整体的实验设置中,批处理大小设置为512,学习率设置为0.01,使用Adam优化器对模型参数进行优化. 对于其他的超参数,检索潜在交互商品数量$ k $设置为50,多兴趣提取器中兴趣数量$ M $在{2, 4, 6, 8, 10}中选择,温度系数$ \tau $在{0.01, 0.05, 0.1 ,0.5 ,1}中选择. 在跨域推荐阶段,用户的交互序列中小于2分的交互商品将会被剔除. 此外,为了评估提出的CDR-ART在不同重叠用户数量下模型的性能,通过保留重叠用户中$ \beta $比例的交互数据作为测试集,以评估模型的性能,剩余部分用于模型的训练,其中$ \beta =\left\{20 {\text{%}} ,50 {\text{%}} ,80 {\text{%}} \right\} $.

提出的CDR-ART是基于映射的跨域推荐算法,在模型的跨域推荐过程中不使用商品和用户的额外信息,如商品的类别、用户性别和用户年龄等. 为了保持场景的一致性,本方法的比较对象是基于映射且不使用辅助信息的跨域推荐算法. 本文选择以下的基线模型进行对比.

1) TGT[9]. TGT为仅使用目标域中的交互数据进行模型训练的推荐方法,考虑到冷启动用户没有对商品的交互信息,这会导致无法为用户学习到合适的用户嵌入表示.

2) CMF[10]. CMF通过对多个领域的交互数据进行混合训练,为用户学习不同领域通用的用户嵌入表示.

3) EMCDR[6]. EMCDR学习用户在源域和目标域中的嵌入表示,通过源域与目标域的重叠用户来学习跨域映射函数.

4) DCDCSR[8]. DCDCSR在EMCDR的基础上考虑将不同领域的稀疏程度作为辅助信息整合到跨域迁移过程中,减小交互稀疏领域中不准确的用户嵌入表示对跨域推荐性能的损害.

5) SSCDR[7]. SSCDR为了缓解2个领域之间重叠用户的稀疏问题,在EMCDR上引入不重叠用户作为额外的辅助信号,有效地增强了模型的性能.

6) PTUPCDR[9]. PTUPCDR为每个用户提取个性化偏好,将个性化偏好通过元网络转换成个性化桥,实现用户的个性化跨域迁移映射.

3.2. 结果对比与分析
3.2.1. 总体性能实验

在公开的数据集上进行实验,记录的实验结果为5个不同随机种子下运行的平均值,如表2所示为所有基线模型和本文提出的CDR-ART总体性能表现. 由于与PTUPCDR使用的数据集相同,基线模型的性能表现数据引自PTUPCDR[9],表现最优的模型使用粗体进行标记.

表 2   模型在3个任务上的总体表现

Tab.2  Overall performance of model on three tasks

任务模型MAERMSE
β=20%β=50%β=80%β=20%β=50%β=80%
任务1TGT4.480 34.498 94.502 05.158 05.173 65.189 1
CMF1.520 91.689 32.418 62.015 82.227 13.093 6
DCDCSR1.491 81.814 42.719 41.921 02.343 93.306 5
SSCDR1.301 71.376 21.504 61.657 91.747 71.922 9
EMCDR1.235 01.327 71.500 81.551 51.664 41.877 1
PTUPCDR1.150 41.280 41.404 91.519 51.638 01.823 4
CDR-ART0.812 30.958 31.176 71.160 01.337 21.545 7
任务2TGT4.183 14.228 84.212 34.753 64.792 04.814 9
CMF1.363 21.581 32.157 71.791 82.088 62.677 7
DCDCSR1.397 11.673 12.361 81.734 62.055 12.770 2
SSCDR1.239 01.213 71.317 21.652 61.560 21.702 4
EMCDR1.116 21.183 21.315 61.412 01.498 11.643 3
PTUPCDR0.997 01.089 41.199 91.331 71.439 51.591 6
CDR-ART0.874 40.922 70.997 21.159 11.241 21.322 6
任务3TGT4.487 34.507 34.620 45.167 25.172 75.230 8
CMF1.828 42.128 23.013 01.382 92.727 53.694 8
DCDCSR1.841 12.173 63.140 52.295 52.677 13.584 2
SSCDR1.541 41.473 91.641 41.928 31.844 12.140 3
EMCDR1.352 41.473 21.719 11.673 71.800 02.111 9
PTUPCDR1.228 61.376 41.578 41.608 51.744 72.051 0
CDR-ART0.869 70.978 71.131 21.244 31.324 01.515 5

新窗口打开| 下载CSV


表2可知,CDR-ART在所有任务上均取得最优性能,与最优的基线PTUPCDR相比,CDR-ART在所有任务上的平均MAE降低了22.86%,平均RMSE降低了19.65%. 相对于其他2个任务而言,任务2的提升相对较小,MAE平均下降了14.97%,RMSE下降了14.67%. 一个可能的原因是任务2的重叠用户最多,几乎所有的基线模型都可以通过大量的重叠用户来学习较优的映射函数. 在重叠数据稀疏的任务1和任务3中,与其他基线模型相比,提出的CDR-ART表现更优,体现出CDR-ART在重叠数据稀疏场景下的优势.

3.2.2. 消融实验

为了验证提出CDR-ART模型中源域数据增强策略与多兴趣细化模块的有效性,从CDR-ART中移除各个模块进行比较,其变体如下.

1) w/o aux:去掉模型中的辅助序列,仅从用户对商品的交互序列中提取多个兴趣.

2) w/o refine: 去掉模型中的多兴趣细化迁移模块,使用全连接层,将用户和提取出的多个兴趣进行融合来替代.

3) w/o aux&&refine:同时去掉模型中的辅助序列与兴趣细化模块,从用户对商品的交互序列中提取多个兴趣且不经过兴趣细化.

表3所示为3个数据划分下的消融实验效果中的MAE指标. 从表3的实验结果可以得到以下结论.

表 3   CDR-ART在3个任务上的消融实验

Tab.3  Ablation experiment of CDR-ART on three tasks

任务$ \beta $/%MAE
CDR-ARTw/o auxw/o refinew/o aux&&refine
任务1200.812 30.847 00.865 40.943 5
500.958 31.048 71.041 31.084 3
801.176 71.255 71.255 91.342 9
任务2200.874 40.887 10.897 20.920 2
500.922 70.935 70.938 00.961 8
800.997 21.027 41.026 41.044 3
任务3200.869 70.909 90.944 50.972 8
500.978 71.040 81.038 71.080 9
801.131 21.189 71.195 81.245 9

新窗口打开| 下载CSV


1)去掉本文提出的任意一个模块后,模型的效果均明显下降. 这说明提出的模块起到了积极的作用.

2)在去掉辅助序列模块(w/o aux)后,推荐性能产生的下降表明仅依赖于用户在源域中交互的商品无法充分地挖掘用户在源域中的兴趣偏好,体现出辅助序列在增强用户源域兴趣挖掘方面的积极作用.

3)相对于去掉辅助序列模块而言,去掉兴趣细化模块(w/o refine)对模型的影响更大,这表明兴趣细化在用户兴趣跨域迁移过程中发挥的重要作用.

4)同时去掉辅助序列模块和多兴趣细化模块,模型的性能相比于去掉其中任意一个模块都有显著下降,这说明在提取多个兴趣的基础上,对兴趣进行细化能够提升迁移的效果.

3.2.3. 参数敏感性实验

超参数$ M $控制从序列中提取兴趣的数量. 在$ \beta = 20 {\text{%}} $场景下对超参数$ M $进行调整,研究兴趣数量$ M $对模型性能的影响,如表4所示.

表 4   兴趣数量$ M $对模型性能的影响

Tab.4  Impact of number of interests $ M $ on performance of model

$ M $任务1任务2任务3
MAERMSEMAERMSEMAERMSE
20.819 01.166 90.881 11.161 70.869 71.256 6
40.822 31.160 00.884 01.159 60.885 61.267 7
60.817 41.163 40.874 41.160 50.882 81.263 3
80.823 41.162 70.886 91.163 50.887 91.244 3
100.812 31.164 50.881 91.159 80.880 61.249 1

新窗口打开| 下载CSV


表4可以看出,当$ M $从2增加到10时,使3个任务的MAE指标最优的$ M $分别为10、6和2. 3个任务的RMSE指标最优的$ M $分别设置为4、4和8. 总体来说,当$ M $较小时往往不能对用户的多个兴趣进行充分地建模,但$ M $被设置得过大时可能会引入更多的噪音参数,对模型的性能造成损害. 超参数$ M $的设置应随着任务不同而进行动态地调整.

此外,$ k $的大小控制为每个用户从源域中检索的潜在交互商品的数量. 为了探究$ k $对模型性能的影响,当$ \beta = 20 {\text{%}} $$ M $=6时探索CDR-ART的性能随$ k $调整所产生的变化. 实验结果如图3所示.

图 3

图 3   潜在交互商品的数量对性能的影响

Fig.3   Influence of number of potential interactive item on performance


图3可知,与不引入辅助交互商品序列($ k $ = 0)相比,通过引入潜在交互商品序列,可以有效地提升模型的性能. 当$ k $较小时,过少的潜在交互商品无法有效地丰富用户在源域中的兴趣偏好,带来次优的结果. 尽管通过引入去噪选择模块可以有效地缓解辅助序列中的噪音问题,但当$ k $过大时,过多的潜在交互商品数量可能引入额外噪音,影响模型的性能. 选择合适的$ k $可以提高模型性能. 在本文的实验场景中,$ k $设置为25或50,表现相对较好. 为了简化参数的设置,在本文的其他实验中,$ k $被固定为50.

3.2.4. 模型泛化性实验

为了对提出的跨域推荐方法的泛化性进行验证,将EMCDR、PTUPCDR和CDR-ART模型的源域和目标域中的单域模型均更换为GMF[2],分别记为EMCDR(GMF)、PTUPCDR(GMF)和CDR-ART(GMF). 在更换基础模型后,CDR-ART(GMF)和2个基线模型的性能比较如图4所示.

图 4

图 4   CDR-ART模型的泛化性实验

Fig.4   Experiments on generalizability of CDR-ART


在GMF作为单域的基础模型的设置下,CDR-ART取得了最优的效果. 在任务1和任务3中取得了更大的优势. 在相对困难的任务2中,CDR-ART的性能提升明显. 实验结果验证,提出的跨域推荐方法CDR-ART不太依赖基础模型的选择,具有较强的泛化性能.

3.2.5. 用户交互数量与辅助序列的影响

通过对测试集中拥有不同交互长度的用户进行划分,将用户序列划分为长度≤10的一类和序列长度>10的另一类. 针对这2类用户,使用完整的CDR-ART(full)模型和去掉数据增强策略的CDR-ART变体CDR-ART(w/o aux)分别进行测试,最终的结果如图5所示.

图 5

图 5   CDR-ART(full)与CDR-ART(w/o aux)对源域中交互序列长度不同用户的性能表现

Fig.5   Performance of CDR-ART(full) and CDR-ART(w/o aux) for users with different lengths of interaction sequences in source domain


从实验结果可以看出,交互序列长度大于10且使用数据增强策略的实验设置,在与其他条件相同的对比实验中均取得了最优的结果. 这验证了在源域中拥有丰富交互数据的用户更容易在跨域推荐中取得好的表现. 此外,相对于拥有长序列的用户,提出的数据增强策略对拥有短序列的用户的性能提升更加明显,这验证了本文方法能够有效地解决源域用户的交互数据稀疏问题. 无论是拥有长序列的用户还是短序列的用户,提出的数据增强策略均显著提升了模型的性能,这验证了在跨域推荐的过程中对用户源域的交互序列进行增强的有效性.

3.2.6. 案例分析

为了研究用户潜在交互序列在跨域推荐中的作用,从测试数据中随机采样一名用户,将这名用户真实交互的商品与采样的潜在交互商品进行部分展示,结果如图6所示.

图 6

图 6   被采样用户的部分交互商品案例研究

Fig.6   Case study of sampled user’s partial interaction with items


通过观察用户潜在交互序列中的商品可以发现,用户在源域的潜在交互商品中包含与这名用户真实交互商品相关的商品,如与“健康饮食”相关的书籍. 在跨域推荐的过程中,这种相关的商品可能在建模用户兴趣偏好的准确性上发挥作用. 对于潜在交互中出现的与真实交互商品类型不同的商品,如“惊悚与悬疑”类型的商品,更有可能在挖掘用户源域中的隐式兴趣偏好上发挥作用.

4. 结 语

本文提出基于源域数据增强与多兴趣细化迁移的跨域推荐模型CDR-ART,解决跨域推荐中在源域中用户交互稀疏问题与用户存在多个兴趣且兴趣之间关联的问题. 实验结果表明,本文提出的方法相对于基线模型在3个评测任务上均取得了最优性能. 相对于对目标域冷启动用户推荐性能的提升,如何有效整合用户在多个领域中的交互信息以及将本文方法泛化到更广泛的应用场景值得进一步的探索.

参考文献

KOREN Y, BELL R, VOLINSKY C

Matrix factorization techniques for recommender systems

[J]. Computer, 2009, 42 (8): 30- 37

DOI:10.1109/MC.2009.263      [本文引用: 2]

HE X, LIAO L, ZHANG H, et al. Neural collaborative filtering [C]// Proceedings of the 26th International Conference on World Wide Web . Perth: ACM, 2017: 173-182.

[本文引用: 1]

LIU L, WANG L, LIAN T

CaSe4SR: using category sequence graph to augment session-based recommendation

[J]. Knowledge-Based Systems, 2021, 212 (1): 106558

QIAO J, WANG L

Modeling user micro-behaviors and original interest via adaptive multi-attention network for session-based recommendation

[J]. Knowledge-Based Systems, 2022, 244: 108567

DOI:10.1016/j.knosys.2022.108567      [本文引用: 1]

FU W, PENG Z, WANG S, et al. Deeply fusing reviews and contents for cold start users in cross-domain recommendation systems [C]// Proceedings of the AAAI Conference on Artificial Intelligence. Honolulu: AAAI, 2019: 94-101.

[本文引用: 3]

MAN T, SHEN H, JIN X, et al. Cross-domain recommendation: an embedding and mapping approach [C]// Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne: Morgan Kaufmann, 2017: 2464-2470.

[本文引用: 3]

KANG S K, HWANG J, LEE D, et al. Semi-supervised learning for cross-domain recommendation to cold-start users [C]// Proceedings of the 28th ACM International Conference on Information and Knowledge Management. Beijing: ACM, 2019: 1563-1572.

[本文引用: 1]

ZHU F, WANG Y, CHEN C, et al. A deep framework for cross-domain and cross-system recommendations [C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. Stockholm: Morgan Kaufmann, 2018: 3662-4402.

[本文引用: 3]

ZHU Y, TANG Z, LIU Y, et al. Personalized transfer of user preferences for cross-domain recommendation [C]// Proceedings of the 15th ACM International Conference on Web Search and Data Mining. [S. l. ]: ACM, 2022: 1507-1515.

[本文引用: 12]

SINGH A P, GORDON G J. Relational learning via collective matrix factorization [C]// Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Las Vegas: ACM, 2008: 650-658.

[本文引用: 2]

PAN W, XIANG E, LIU N, et al. Transfer learning in collaborative filtering for sparsity reduction [C]// Proceedings of the AAAI conference on artificial intelligence. Atlanta: AAAI, 2010: 230-235.

[本文引用: 1]

CAO J, CONG X, LIU T, et al. Item similarity mining for multi-market recommendation [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 2249-2254.

[本文引用: 1]

LI P, TUZHILIN A. Ddtcdr: deep dual transfer cross domain recommendation [C]// Proceedings of the 13th International Conference on Web Search and Data Mining. Houston: ACM, 2020: 331-339.

[本文引用: 1]

ZHAO C, ZHAO H, HE M, et al. Cross-domain recommendation via user interest alignment [C]// Proceedings of the ACM Web Conference. Austin: ACM, 2023: 887-896.

[本文引用: 1]

XIE R, LIU Q, WANG L, et al. Contrastive cross-domain recommendation in matching [C]// Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. Washington: ACM, 2022: 4226-4236.

[本文引用: 1]

CAO J, LIN X, CONG X, et al. Disencdr: learning disentangled representations for cross-domain recommendation [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 267-277.

[本文引用: 1]

LI C, XIE Y, YU C, et al. One for all, all for one: learning and transferring user embeddings for cross-domain recommendation [C]// Proceedings of the 16th ACM International Conference on Web Search and Data Mining. Singapore: ACM, 2023: 366-374.

[本文引用: 1]

LI C, LIU Z, WU M, et al. Multi-interest network with dynamic routing for recommendation at Tmall [C]// Proceedings of the 28th ACM International Conference on Information and Knowledge Management. Beijing: ACM, 2019: 2615-2623.

[本文引用: 1]

SABOUR S, FROSST N, HINTON G E. Dynamic routing between capsules [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems . Long Beach: Curran Associates, 2017: 3859–3869.

[本文引用: 1]

CEN Y, ZHANG J, ZOU X, et al. Controllable multi-interest framework for recommendation [C]// Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. [S. l. ]: ACM, 2020: 2942-2951.

[本文引用: 1]

CHAI Z, CHEN Z, LI C, et al. User-aware multi-interest learning for candidate matching in recommenders [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 1326-1335.

[本文引用: 2]

LI J, ZHU J, BI Q, et al. MINER: multi-interest matching network for news recommendation [C]// Findings of the Association for Computational Linguistics. Dublin: ACL, 2022: 343-352.

[本文引用: 2]

WANG H, ZHANG F, XIE X, et al. DKN: deep knowledge-aware network for news recommendation [C]// Proceedings of the 2018 World Wide Web Conference. Lyon: ACM, 2018: 1835-1844.

[本文引用: 2]

FAN Z, XU K, ZHANG D, et al. Graph collaborative signals denoising and augmentation for recommendation [C]// Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval. Taipei: ACM, 2023: 2037-2041.

[本文引用: 1]

WANG C, WANG Z, LIU Y, et al. Target interest distillation for multi-interest recommendation [C]// Proceedings of the 31st ACM International Conference on Information and Knowledge Management. Atlanta: ACM, 2022: 2007-2016.

[本文引用: 1]

WANG F, WANG Y, LI D, et al. Enhancing CTR prediction with context-aware feature representation learning [C]// Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022: 343-352.

[本文引用: 1]

/