关注我们,一起学习
TLDR:大语言模型(LLM)的集成显著提升了推荐系统的性能。然而,这通常以牺牲推荐多样性为代价,从而可能对用户满意度产生负面影响。为了解决这个问题,可控推荐已成为一种很有前景的方法,它允许用户指定自己的偏好并接收满足其多样化需求的推荐。尽管具有潜力,但现有的可控推荐系统经常依赖简单的机制(例如单个prompt微调)来调节多样性,这种方法未能完全捕捉用户偏好的复杂性。
为了应对这些限制,我们提出了 DLCRec(D iversity-oriented L LM-based C ontrollable Rec ommender),这是一个旨在对基于 LLM 的推荐进行细粒度多样性控制的新型框架。与传统方法不同,DLCRec 采用精心设计的任务分解策略,将推荐过程分解为三个连续的子任务:类别预测(Genre Predicting,GP)、类别填充(Genre Filling,GF)和物品预测(Item Predicting)。这些子任务会独立进行训练,并根据用户定义的控制数(用户希望的推荐类型数)进行顺序推理,确保对多样性进行更精确的控制。
此外,多样性相关用户行为数据的稀缺性和不均匀分布对微调提出了重大挑战。为了克服这些障碍,我们引入了两种数据增强技术,以增强模型对噪声数据和分布外数据的鲁棒性。这些技术使模型能够接触更广泛的模式,从而提高其在生成具有不同多样性级别的推荐时的适应能力。
我们的实验表明,DLCRec 不仅可以对推荐的多样性进行精确控制,而且在多种推荐场景中都优于最先进的基线模型。
论文:https://arxiv.org/abs/2408.12470
代码:https://github.com/Jiaju-Chen/DLCRec
引言
任务背景
基于LLM的推荐系统在少样本推荐方面表现出色,但推荐结果易重复用户历史喜好,存在同质化问题,影响用户体验和满意度。为提升推荐多样性,让用户能控制推荐结果的多样性十分重要,有助于发现新兴趣点,减少同质化问题。然而,直接利用LLM实现可控多样性推荐存在挑战,因为现有模型缺乏专门针对多样性控制任务的训练和调优,且任务复杂,主流的单任务微调难以让LLM有效学习对推荐结果多样性的可控能力。
解决方案
针对这一问题,我们提出了一种新的方法,称为DLCRec (基于多样性的大语言模型可控推荐系统)。DLCRec可以根据用户的需求,精确控制推荐结果的多样性。我们将复杂的推荐任务分解为三个步骤:预测推荐的类别(GP)、填充这些类别(GF)、再预测具体的推荐物品(IP)。通过这种分解方法,我们利用少量数据进行针对性训练,确保模型在不同的多样性需求下都能做出合理的推荐。
在预测阶段,我们还设计了两种数据增强策略,以确保模型在面对少见或极端的多样性需求时仍能保持良好的表现。这些增强策略包括:在训练数据中引入噪声,模拟前序任务可能出现的错误,从而增强模型的鲁棒性;同时,调整控制数目的分布,确保模型能更好地处理那些训练中较少出现的情况。
通过在真实数据集上的实验,我们验证了DLCRec的有效性。实验结果表明,DLCRec在满足多样性控制的同时,保持了较高的推荐准确性,展示了其在实际应用中的潜力。
方法
模型框架
为了充分利用 LLM 在推荐系统中控制多样性的潜力,我们提出了一种集训练与控制于一体的框架,DLCRec 框架。这个框架将列表推荐任务分解为三个不同的子任务:类别预测(GP)、类别填充(GF)和物品预测(IP)。如图 2 所示,DLCRec 包括两个主要部分:训练框架 和控制框架 。
图 2:DLCRec 框架
1. 训练框架
DLCRec 将推荐任务拆分为三个子任务,每个子任务进行独立训练,以确保模型对推荐任务有更精准的学习。具体任务形式见表 1,黄色高亮部分表示在控制框架中需要改变的可控部分。
表 1:DLCRec 任务形式
- 类别预测(Genre Prediction,GP) 通过分析用户的历史互动数据(用户的历史交互物品与其类别),模型预测未来推荐列表中可能出现的类别(例如,电影的类型、书籍的类别等)。这个步骤的目标是根据过去的偏好,推测未来用户可能感兴趣的类别。
- 类别填充(Genre Filling,GF) 在预测出可能的类别后,模型根据这些类别填充推荐列表中的类别位置,确保推荐结果对应用户感兴趣的类别。
- 物品预测(Item Prediction,IP) 最后,模型根据前两个步骤的结果,预测具体的推荐物品,并确保这些物品符合之前预测的类别。
2. 控制框架
在控制框架中,DLCRec 通过三个子任务的顺序执行,实现对推荐列表中多样性的精确控制。用户可以设置自己想要的类别数量,系统会根据这个“控制数”来生成推荐结果。具体控制方式如下:
- 任务 GP 通过调整控制数,系统会根据用户的需求预测出相应数量的类别。
- 任务 GF 根据上一步预测的类别,在推荐列表中填充这些类别,并确保其符合用户设定的多样性需求。
- 任务 IP 根据填充好的类别,推荐具体的物品,确保系统给出的推荐列表既符合用户兴趣,也拥有足够的多样性。
框架总结
DLCRec 将推荐任务分解为三个顺序的子任务,将三个子任务独立训练,在推断时以级联的方式依次运行。每个任务的输出都会影响下一个任务的输入。通过控制数的传递,DLCRec 能够灵活调节推荐列表的多样性,满足用户的个性化需求。这一框架使得推荐系统能够在不同的多样性要求下,生成定制化的推荐列表。
数据增强
在推荐系统中,实现不同层次的多样性推荐是一项充满挑战的任务,特别是在训练数据中多样性信号稀缺且分布不均的情况下。为了解决这一问题,我们提出了两种用于任务 GF(类别填充)和 IP(物品预测)的数据增强方法,从而提升模型在应对噪声数据和分布外控制目标时的鲁棒性。通过将原始数据与增强数据相结合,我们构建了一个更加多样化且具有代表性的训练集,使模型能够学习到更加通用的模式,并提升在不同多样性要求下生成推荐列表的能力。
任务 GF 的数据增强
在任务 GF 中,我们采用了两种数据增强策略——GF-N 和 GF-D,来提升模型在应对噪声和不同控制数量时的鲁棒性。
- GF-N(引入噪声) :为了提升模型在面对噪声目标类别时的抗干扰能力,我们在训练序列中人为引入噪声,将每个序列中的一个类别替换为噪声类别。这样可以确保控制类别数量 与原始类别数量 保持一致,从而让模型学会在噪声环境下做出更鲁棒的预测。
- GF-D(调整控制数) :为了增强模型对不同控制数量 的适应能力,我们从 范围内均匀采样 ,并根据采样结果调整类别交互序列。如果原始类别数量 超过控制数量 ,我们随机替换掉最不常见的类别;反之,如果 小于 ,则根据训练集中类别的分布情况采样额外的类别,以达到所需的控制数。
任务 IP 的数据增强
在完成 GF-N 和 GF-D 的增强后,我们进一步对训练数据中的物品序列应用了两种数据增强方法:IP-N 和 IP-D,以进一步提升模型对噪声与罕见数据的泛化性。
- IP-N(引入噪声) :考虑到 GF 任务中的预测可能存在误差,我们在 IP 任务的输入中引入噪声。具体操作是定义一个错误率 ,代表 GF 任务预测错误的概率。然后我们按照这个错误率,将推荐列表中的部分物品替换为来自其他类别的物品,替换项依据训练集中物品分布进行采样。
- IP-D(调整控制数) :与 GF-D 策略类似,我们将修改后的类别集中的每个类别替换为相应的物品,采样依据训练集中每个类别的物品分布。这确保了模型接触了各种控制数下的物品,提升其在处理不同类别组合时生成推荐结果的能力。
数据增强总结
这些数据增强策略不仅提升了模型在类别层面和物品层面处理多样性需求的能力,还增强了模型应对噪声数据和分布外数据的鲁棒性。通过结合原始数据与增强数据,模型能够在不同多样性要求下生成更加精确和个性化的推荐列表,满足用户的多样化需求。
实验
总体表现
为评估 DLCRec 和其他基线模型在不同多样性要求下的表现,我们设置了三种控制场景:低多样性(2 个类别)、中等多样性(5 个类别)和高多样性(8 个类别),覆盖了数据集中常见和罕见的需求。
- 我们分别在 Movie 和 Steam 两个推荐数据集上进行了实验,选取 1000-shot 样本进行训练与评价。
- 评估中使用了两类指标 :
我们的目标是在保证高准确性性的同时,尽量提升控制准确性,即减少 MAE_Cov@K。
- 准确性指标:NDCG@K 和 Recall@K ,用于衡量推荐的相关性。
- 多样性控制指标:Cov@K 测量推荐列表的类别覆盖率,MAE_Cov@K 计算类别覆盖的误差。
- 我们选择了两个经典的多样性控制方法作为对比:
- BIGRec_div :对 BIGRec 进行调整,通过提示不同的控制数生成多样化推荐列表。
- BIGRec_CoT :结合 Chain-of-Thought 提示策略,先思考对应的类别,再根据类别进行推荐。
表 2 对比了 DLCRec 与其他基线在不同多样性需求下的结果。可以发现,DLCRec 在多样性控制推荐任务中表现最佳,其 MAE_Cov@10 指标最低,且能精准遵循控制数。相比之下,BIGRec_div 和 BIGRec_CoT 在复杂任务学习上存在困难。DLCRec 通过任务分解,虽在准确性上略有牺牲,但总体平衡良好,尤其在控制数为5时在Steam数据集上超越其他基线,展现出其在准确性与可控性间的优异平衡能力。
表 2:DLCRec 总体表现
消融实验
如图 3,将任务 GP 与 GF 合并后,我们发现 DLCRec 的准确性与可控性大幅下降。这说明 DLCRec 的分解框架在实现多样性控制推荐方面至关重要。单一任务微调或简单组合任务无法满足推荐系统中不同多样性需求。
图 3:不同任务分解的效果
我们在表 3 对比了不同数据增强方法在控制数为 5 的效果。我们发现不同的数据增强策略在GF和IP任务上表现不同的优劣。其中,GF-ND和IP-ND的组合在准确性和多样性控制之间取得了最佳平衡。这些实验结果表明,数据增强策略在提升DLCRec性能方面至关重要,合理的策略组合能够有效提高推荐系统的多样性控制能力和整体表现。
表 3:不同数据增强的效果
敏感度分析
我们进一步研究了 DLCRec 控制不同多样性水平的推荐能力。通过调整控制数(1 到 10 代表最小到最大多样性),我们发现:
- 推荐的多样性与控制数字强相关: 控制数字越大,推荐的类别覆盖范围越广,关系近乎线性。
- 准确率保持稳定: 无论控制数字如何变化,DLCRec的推荐准确率都保持相对稳定,说明它能适应不同多样性需求而不牺牲准确性。
- 最佳性能在控制数字为5: 两个数据集都显示,当控制数字为5时准确率最高,可能因为这是训练数据中出现频率较高的值。
总而言之,DLCRec能够灵活地满足用户不同的多样性需求,同时保持一致的推荐质量。
图 4:不同控制信号下的敏感度分析
总结与展望
在这项工作中,我们提出了 DLCRec,一种新的面向多样性的可控推荐框架。该框架将任务分解为三个子任务:类别预测、类别填充和物品预测。这些子任务独立训练,并根据用户定义的控制参数顺序推断,确保对多样性的更精确控制。
为了应对训练数据稀疏和数据偏离的挑战,我们采用了两种数据增强策略,以提高模型的鲁棒性和适应不同多样性需求的能力。通过广泛的实验,我们证明了 DLCRec 在响应不同用户请求时调整推荐多样性方面的有效性。此外,我们进行了两个数据消融研究,验证了分解框架和数据增强策略的有效性。
这项工作为微调大语言模型进行可控推荐提供了一个有前景的方法。虽然我们的主要关注点是控制推荐列表的多样性,但所提出的框架可以适应其他目标,如 novelty 和 serendipity 等。研究中,我们发现 LLM 在列表级推荐中的生成能力仍有提升空间。未来的研究方向可能包括优化 LLM 的列表级推荐能力,进一步提升可控推荐系统的灵活性和效果。
交流群:点击“联系 作者”--备注“研究方向-公司或学校”
欢迎|论文宣传|合作交流
往期推荐
NeurIPS 2024 | G3: 一种基于多模态大模型的高效自适应地理定位框架
长按关注,更多精彩
点个在看你最好看