SelfGNN:图神经网络加持,突破传统推荐系统局限
SelfGNN:图神经网络加持,突破传统推荐系统局限
在信息过载的时代,推荐系统已经成为人们获取信息和发现新事物的重要工具。然而,传统的推荐系统面临着两个关键挑战:一是难以捕捉用户行为的短期合作关系,二是现实世界数据中的噪声对模型准确性产生负面影响。为了解决这些问题,北京大学和香港大学的研究人员提出了一种名为SelfGNN的全新框架,通过结合图神经网络和个性化自增强学习,实现了对用户行为的多时间尺度模式的捕捉,显著提升了推荐系统的鲁棒性。
SelfGNN框架的核心创新
SelfGNN框架的主要创新在于其独特的双粒度建模方式和个性化自增强学习机制。具体来说,SelfGNN通过以下方式克服了传统推荐系统面临的挑战:
多粒度用户行为建模:SelfGNN将用户行为数据划分为多个短期图,并利用图卷积神经网络(GCN)捕捉短期高阶协同关系。同时,通过序列模型对用户跨时间片段的行为进行关联学习,捕捉长期的时序变化模式。
个性化自增强学习:为了降低数据噪声的影响,SelfGNN提出了一种个性化自增强学习方法。该方法通过对比长短期用户行为模式,识别并减弱短期噪声,从而增强模型的稳健性。
模型方法详解
短期交互模型编码
SelfGNN首先将全局数据划分为多个短期图,然后利用多层图卷积神经网络(GCN)协同传播高阶信息。通过这种方式,SelfGNN不仅捕获了协同信号,还包含了短期时间信息。
双粒度长期行为建模
SelfGNN通过两种方式捕获长期用户和商品表示:
Interval-level序列建模:使用GRU学习动态位置,构建interval-level的时间序列,并基于多头自注意力机制得到长期特征嵌入。
Instance-level序列建模:基于商品的长期特征嵌入,通过融合位置编码的多头自注意力机制对用户行为序列进行学习,得到用户的实例级别长期特征。
多视角融合和预测
SelfGNN将实例级和间隔级方法得到的多层次用户特征进行融合,并最终做出预测。损失函数综合考虑了不同粒度的特征表示。
个性化自监督去噪
为了缓解数据稀疏性和数据噪声问题,SelfGNN通过一个个性化去噪自监督学习任务进行增强。具体来说,SelfGNN通过对比短期和长期视角之间的相似度差异,识别并减弱短期噪声。通过可学习的权重捕捉用户短期和长期偏好一致性的不同程度,实现个性化去噪。
实验结果
实验结果表明,SelfGNN在多个数据集上都取得了显著的性能提升。特别是在处理数据噪声方面,SelfGNN展现出了更强的鲁棒性。例如,在Amazon数据集中,当噪声比例达到20%时,其他模型的性能大幅下降,而SelfGNN仍然能够保持较高的推荐效果。
案例研究
通过具体的数据实例分析,研究者发现SelfGNN能够准确识别并减弱可能为噪声的交互行为。例如,对于一个用户(id为6128)和其一部分行为序列,SelfGNN能够识别出与用户主要兴趣不符的商品(id为6282),并通过自监督学习降低其相似度得分。
总结与未来工作
SelfGNN通过结合周期性协同信息和行为序列依赖性,学习了更好的兴趣表示,并通过自增强学习根据个体用户的稳定性特征自适应地减弱短期噪声。未来的研究方向包括探索自适应动态短期图划分技术,以及将个性化自监督学习范式推广到更多的结构和场景中。