答辩公告
我的位置在: 首页 > 答辩公告 > 正文
谢祖享博士生答辩公告
浏览次数:日期:2025-05-30编辑:

学位论文简介

在信息技术与互联网飞速发展的背景下,用户在海量信息中快速获取感兴趣内容的需求日益迫切,推荐系统作为信息过滤的核心技术,已成为电子商务、社交媒体和流媒体平台的关键基础设施。然而,现存的推荐方法主要面临三大技术挑战:首先现有的推荐方法在数据稀疏和噪声场景下推荐精度显著下降,难以捕获用户-物品间的准确交互关系和用户的真实兴趣;其次冷启动问题导致新用户/物品的推荐质量难以保障,制约了系统的可用性与扩展性;而且现有方法对用户兴趣的动态性和多样性建模能力不足,难以提供多样化、泛化性的推荐结果。本文立足于上述推荐系统的核心挑战,构建了对比学习驱动语义与图嵌入融合推荐的技术体系,提出了一系列新的解决方案。具体而言,本文针对下列问题提出具体解决方案:

1)针对交互序列中存在兴趣偏差的噪声问题,提出了一个基于去偏对比学习的序列推荐模型(SimDCL),通过改进数据增强策略减少采样偏差。首先,通过向原始样本嵌入添加随机高斯噪声增强样本,并设计基于梯度的算法优化噪声样本,使其朝向表示空间中最不均匀分布区域,以填充整个表示空间。然后,设计了一种目标过滤方法,惩罚用户交互序列中的伪正样本和伪负样本,并通过阈值将伪正/负样本过滤掉。最后,将原始样本与过滤后的增强样本结合用于模型训练,以达到过滤兴趣偏差样本和提升推荐准确度的效果。

2)针对交互数据中稀疏性和噪声问题,提出了一个基于多层次对比学习的知识图谱推荐模型(MKGCL),旨在缓解知识图谱增强推荐任务中的噪声问题和长尾效应,同时优化模型表示输出的均匀性和对齐性。该模型计了两种数据增强方法从知识图谱结构和知识嵌入空间两个角度构造增强信号,并采用交换高共现关系在关系嵌入中添加噪声扰动作为增强策略的一部分,以提升表示对齐性。提出了两种对比学习方法用于从用户、物品、实体和关系的多个层次构建对比学习,和引入动量对比学习来缓解推荐数据的稀疏性和噪声问题,并优化模型输出表示的均匀性。

3)针对LLM推荐中冷启动、信息时效性、令牌长度限制和硬件成本高的问题,提出了一个基于大语言模型的个性化推荐模型(OSLMRec)。该模型通过引导学习发挥 LLM 的优势,并克服其在推荐任务中的局限性。首先重新定义了用户和物品的 ID,以促进 LLM 的识别并缓解上下文关联问题。其次,通过增量预训练为 LLM 补充了推荐数据集的特定领域知识,帮助模型更好地学习用户和物品特征并识别潜在信息,解决冷启动问题。最后,设计了软硬提示策略进行逐步微调预训练模型,帮助 LLM 积累丰富的用户历史交互数据捕捉潜在兴趣和避免输入令牌过长,以及减少硬件资源消耗。

4)针对LLM推荐中全候选集利用不足和多样性提升的问题,提出了一个基于链式思维引导的生成式推荐模型(CTGRec)。该模型通过引入链式思维机制、用户与物品的双重建模,以及上下文增强的动态推理,逐步从完整的物品列表中筛选出用户的兴趣,有效克服上述问题。具体来说,该模型构建了动态的用户画像和多维度物品画像,准确捕捉用户兴趣的变化和物品特征的复杂性帮助 LLM 聚焦于用户兴趣和物品特征之间的核心关系。此外,链式思维机制将用户的历史行为和物品特征建模为一步一步的推理链。通过将推荐任务拆解为多个子问题,逐步分析并解决这些问题,增强了大语言模型的深度推理能力,同时有效解决了使用原始候选列表时的信息冗余问题。最终实现了用户与物品之间的精准动态匹配,显著提高了推荐的准确性和多样性。

5)针对有效融合交互数据和上下文数据提升个性化和多样性推荐的问题,提出了一个融合语义与图嵌入的个性化推荐模型(LGERec)。该模型将由预训练语言模型生成的语义嵌入与图神经网络生成的结构嵌入相融合,实现了用户与物品之间的多源信息相结合。此外,通过动态多头注意力机制根据特定的用户-物品交互模式动态调整不同嵌入表示的权重,使模型能够灵活应对不同的交互维度。并引入了一种语义相似度损失函数,用于对齐 LLM 嵌入与图嵌入促进有效的融合。同时结合动态难负样本采样的对比学习进一步优化了用户-物品表示,通过最小化用户与正样本物品嵌入之间的距离,同时最大化与负样本物品嵌入之间的分离度。最后使模型能够有效融合交互数据和上下文数据提升个性化推荐能力。

 


主要学术成果

  1. Zuxiang Xie, Junyi Li*. Simple Debiased Contrastive Learning for Sequential Recommendation. Knowledge-Based Systems 2024 Vol.300 P112257  0950-7051. (SCI 1, 一作)

  2. Zuxiang Xie, Junyi Li*, Ning Wu. Enhancing Alignment and Uniformity of Contrastive Learning for Knowledge-based Recommendation. 2024 International Joint Conference on Neural Networks (IJCNN) Yokohama 2024. (CCF C/EI, 一作)

  3. Zuxiang Xie, Junyi Li*, Yaping Lin. Is It Sufficient to Harness Only Small Language Models for Recommendation? International Journal of Machine Learning and Cybernetics. (SCI 3区,一作, Under review)

  4. Zuxiang Xie, Junyi Li*, Yaping Lin. LGERec: Integrating Language and Graph Embeddings for Personalized Recommendations. Engineering Applications of Artificial Intelligence. (SCI 1区,一作, Under review)

  5. Zuxiang Xie, Renke Zhao, Junyi Li*, Yaping Lin, Hao Zhang, Weifeng Shen. Adaptive Contrastive Graph Attention Network for Recommendation. IEEE Transactions on Neural Networks and Learning Systems. (SCI 1区,一作, Under review)

  6. Yingcong Hong, Zuxiang Xie, Junyi Li*, Yaping Lin. Chain-of-Thought Guided Generative Recommendation with Large Language Models. Frontiers of Computer Science. (SCI 2/CCF B, 共一作, Under review)

  7. Yingcong Hong, Zuxiang Xie, Junyi Li*, Yaping Lin. Emotion-Driven Recommendations with Large Language Models. Data Mining and Knowledge Discovery, With Editor. (CCF B, 共一作, With Editor)

  8. 慢阻肺智能护理方法、装置及系统 (导师第一本人第二作者,发明专利, 发明公布,CN114141383A)

  9. 智能澄清提问语句生成方法、装置、设备及介质 (第二作者,发明专利, 发明公布,CN118051603A)

  10. 税务风险评估方法、装置、模型及存储介质(第三作者,发明专利,发明公布, CN119887411A

  11. 基于知识图谱的模型构建方法、装置及电子设备(第四作者,发明专利,发明公布, CN119903927A