博客

  • 让语言模型更懂你的喜好:Softmax Direct Preference Optimization 在推荐系统中的应用

    推荐系统旨在根据用户的偏好数据预测个性化的排名,例如购买、点击和评分等历史交互行为。随着语言模型(LM)的兴起,基于 LM 的推荐系统因其丰富的世界知识和强大的推理能力而受到广泛关注。大多数基于 LM 的推荐系统将历史交互行为转化为语言提示,并将正向项目作为目标响应,并使用语言建模损失来微调 LM。然而,当前的目标无法充分利用偏好数据,并且没有针对个性化排名任务进行优化,这阻碍了基于 LM 的推荐系统的性能。

    为了解决这个问题,本文提出了一种名为 Softmax-DPO (S-DPO) 的新方法,该方法将排名信息注入到 LM 中,帮助基于 LM 的推荐系统区分用户喜欢的项目和不喜欢的项目,而不仅仅关注正向项目。

    S-DPO 的优势

    S-DPO 借鉴了人类偏好对齐中 Direct Preference Optimization (DPO) 的最新进展,以及推荐系统中 softmax 损失的成功经验。它利用用户偏好数据中的多个负向项目,并为基于 LM 的推荐系统设计了一个 DPO 损失的替代版本,该版本与 softmax 采样策略相连。

    S-DPO 的优势主要体现在以下几个方面:

    • 专门针对个性化排名任务: S-DPO 是第一个专门为基于 LM 的推荐系统设计的个性化排名损失,它有效地利用了多个负向项目,并承认了偏好数据的重要性。
    • 更有效的排名梯度: 实验证明,S-DPO 提供了更有效的排名梯度,并减轻了 DPO 训练中与不稳定性相关的问题。
    • 与 softmax 损失的联系: 理论上,S-DPO 与负采样上的 softmax 损失(在自监督推荐中也称为对比损失,它实现了最先进的性能)相连。这种联系自然地突出了 S-DPO 的排名性能,并强调了多个负向项目的重要作用。
    • 挖掘困难负向样本: S-DPO 具有挖掘困难负向样本的副作用,类似于对比学习范式。这不仅提高了性能,而且加速了训练过程。

    S-DPO 的工作原理

    S-DPO 的工作原理可以概括为以下几个步骤:

    1. 监督微调: 首先,利用推荐特定数据对 LM 进行监督微调,以提高 LM 遵循指令的能力。
    2. 偏好对齐: 在偏好对齐阶段,S-DPO 将每个语言提示与正向项目和随机采样的多个负向项目配对,构建文本形式的偏好数据。
    3. Plackett-Luce 偏好模型: S-DPO 利用 Plackett-Luce 偏好模型来处理推荐任务中相对排名,而不是像传统 DPO 那样仅使用 Bradley-Terry 偏好模型处理成对数据。
    4. S-DPO 损失: S-DPO 将 Plackett-Luce 偏好模型与 DPO 损失相结合,构建了新的 S-DPO 损失函数,该函数利用多个负向项目来优化 LM 的排名能力。

    实验结果

    为了评估 S-DPO 的有效性,本文在三个真实世界基准数据集上进行了大量实验,包括 Movielens、Goodreads 和 LastFM。实验结果表明:

    • S-DPO 优于所有基线模型: S-DPO 在所有数据集上都优于所有基线模型,包括传统的推荐系统和基于 LM 的推荐系统。
    • S-DPO 缓解了 DPO 的数据似然下降问题: S-DPO 能够有效地缓解 DPO 训练中出现的数据似然下降问题。
    • 多个负向样本的优势: 实验表明,使用多个负向样本可以提高 S-DPO 的性能,这与自监督推荐中对比损失的优越性能相一致。

    总结

    本文提出了一种名为 S-DPO 的新方法,该方法将排名信息注入到 LM 中,帮助基于 LM 的推荐系统区分用户喜欢的项目和不喜欢的项目。S-DPO 能够有效地利用用户偏好数据中的多个负向项目,并提供更有效的排名梯度,从而提高基于 LM 的推荐系统的性能。S-DPO 的成功为未来的基于 LM 的推荐系统提供了宝贵的见解,并有可能惠及推荐系统以外的其他研究领域。


    https://arxiv.org/abs/2406.09215


    Q: 这篇论文试图解决什么问题?

    A: 这篇论文试图解决的主要问题是现有基于语言模型(LM-based)推荐系统在个性化排名任务中的性能受限问题。具体来说,作者指出了以下几个关键问题:

    1. 未充分利用偏好数据:当前的LM-based推荐器通常使用语言模型损失(language modeling loss)来优化个性化排名目标,但这种损失函数并没有针对推荐任务中的用户偏好进行特别优化,导致未能充分利用用户的历史交互数据。
    2. 缺乏对负面项的考虑:现有的推荐系统在训练时往往只关注正面项(即用户偏好的项目),而忽略了负面项(用户不偏好的项目)在推荐过程中的作用,这限制了推荐系统与用户偏好的对齐。
    3. 推荐性能受限:由于上述问题,基于语言模型的推荐系统在个性化推荐任务中的表现并不理想,需要进一步优化以提升性能。

    为了解决这些问题,论文提出了一种新的损失函数——Softmax Direct Preference Optimization(S-DPO),它通过结合多个负面样本来优化语言模型,使其能够更好地区分用户偏好的项目和不偏好的项目,从而提高推荐系统的性能。

    Q: 有哪些相关研究?

    A: 论文中提到了多个与推荐系统和语言模型相关的研究工作,主要可以分为以下几个方面:

    1. 基于语言模型的推荐系统(LM-based Recommenders):
      • 利用语言模型的广泛知识库和强大的推理能力来进行个性化推荐。
      • 例如,通过将历史交互数据转换为语言提示,并进行上下文学习或微调语言模型。
    2. 增强型推荐系统(LM-enhanced Recommenders):
      • 将语言模型嵌入作为语义表示,提供对比信号或作为高级特征提取器,改善用户和物品特征的表示。
    3. 偏好对齐(Preference Alignment):
      • 包括使用人类标记的数据来对齐语言模型与人类偏好的方法,如强化学习从人类反馈(RLHF)和直接偏好优化(DPO)。
    4. 自监督学习(Self-supervised Learning):
      • 通过使用对比损失(contrastive loss)等方法,提高推荐系统在没有明确监督信号的情况下的性能。
    5. 推荐系统的评估和挑战
      • 论文中提到了一些关于推荐系统评估的研究,包括处理长串行数据、多模态数据等。
    6. 特定算法和技术
      • 论文中还提到了一些特定的算法和技术,如GRU4Rec、Caser、SASRec等传统推荐算法,以及LLaMA2、Chat-REC、TALLRec等基于语言模型的推荐方法。
    7. 损失函数和优化方法
      • 论文中讨论了不同的损失函数和优化策略,如softmax损失、BPR损失、DPO损失等,以及它们在推荐系统中的应用。
    8. 大型语言模型(Large Language Models, LLMs):
      • 论文中提到了一些关于大型语言模型的研究,探讨了它们在推荐系统中的应用潜力和挑战。

    这些研究为论文提出的S-DPO方法提供了理论和技术背景,同时也展示了推荐系统领域的最新进展。论文通过结合这些相关研究,提出了一种新的损失函数,旨在提高基于语言模型的推荐系统的性能。

    Q: 论文如何解决这个问题?

    A: 论文通过提出一种新的损失函数——Softmax Direct Preference Optimization(S-DPO)来解决现有基于语言模型(LM-based)推荐系统在个性化排名任务中的性能受限问题。具体解决方案包括以下几个关键步骤:

    1. 引入多个负面样本:S-DPO在用户偏好数据中引入多个负面样本(即用户不偏好的项目),而不仅仅是单个负面样本。这有助于更全面地建模用户偏好。
    2. 设计新的损失函数:S-DPO设计了一种新的损失函数,该函数结合了softmax采样策略和直接偏好优化(DPO)的概念。这种损失函数旨在优化语言模型,使其能够区分用户偏好的项目和不偏好的项目。
    3. 理论联系:论文在理论上将S-DPO与softmax损失和负采样损失联系起来,证明了S-DPO在推荐任务中的有效性,并强调了多个负面样本的重要性。
    4. 挖掘硬负样本:S-DPO具有挖掘硬负样本(hard negatives)的副作用,这些样本可以提供更大、更有效的梯度,从而加速模型的训练过程并提高推荐性能。
    5. 梯度分析:论文对S-DPO的梯度进行了分析,证明了其在优化过程中能够提供更有效的排名梯度,并且能够缓解DPO训练中的不稳定性。
    6. 实验验证:通过在三个真实世界数据集上的广泛实验,论文证明了S-DPO在有效建模用户偏好和提升推荐性能方面的优越性,同时解决了DPO的数据可能性下降问题。
    7. 代码开源:为了促进研究和进一步的开发,论文的代码已经在GitHub上公开,供其他研究者和开发者使用和参考。

    通过这些方法,S-DPO能够更好地利用用户偏好数据,优化个性化推荐任务的性能,并为基于语言模型的推荐系统提供了一种新的优化策略。

    Q: 论文做了哪些实验?

    A: 论文中进行了一系列的实验来评估提出的Softmax Direct Preference Optimization(S-DPO)方法,并与传统的推荐系统模型和基于语言模型的推荐系统进行了比较。以下是实验的主要方面:

    1. 数据集:实验使用了三个真实世界的基准数据集,分别是Movielens、Goodreads和LastFM。这些数据集在规模和领域上有所不同,以全面评估S-DPO的性能。
    2. 基线模型:S-DPO与传统推荐模型(如GRU4Rec、Caser、SASRec)和基于语言模型的推荐系统(如LLaMA2、Chat-REC、TALLRec、LLaRA)进行了比较。
    3. 性能指标:主要使用Hit Ratio@1(HR@1)作为性能评估指标,同时引入了Valid Ratio来评估基于语言模型的方法生成适当响应的能力。
    4. 实验设置:所有基于语言模型的推荐系统都在4个NVIDIA A100 GPU上实现。对于所有基于语言模型的推荐系统,进行了最多5个周期的监督微调。对于S-DPO及其变体,进行了额外的3个周期的偏好对齐阶段。
    5. 整体性能比较:通过表1展示了S-DPO与基线模型的比较结果,显示了S-DPO在所有数据集上一致优于所有传统推荐器和最先进的基于语言模型的推荐器。
    6. S-DPO研究
      • 消融研究:比较了S-DPO与仅使用单个负面样本的变体(即对偶DPO损失)以及监督微调(SFT)的性能。
      • 负面样本数量研究:探讨了在偏好数据中使用多个负面样本对S-DPO性能的影响。
      • β值研究:研究了S-DPO中的超参数β对性能的影响。
    7. 梯度分析:对S-DPO的梯度进行了分析,以证明其在优化过程中的有效性。
    8. 损失分析:提供了S-DPO和DPO在验证损失上的趋势比较,以及优选项目奖励的比较。
    9. 代码开源:论文提供了S-DPO的代码,以便其他研究者可以复现实验结果并在此基础上进行进一步的研究。

    通过这些实验,论文证明了S-DPO在个性化推荐任务中的有效性,并展示了其在不同数据集和不同设置下的性能优势。

    Q: 有什么可以进一步探索的点?

    A: 尽管论文提出了S-DPO这一有效的方法来提升基于语言模型的推荐系统性能,但仍有一些潜在的研究方向和问题可以进一步探索:

    1. 扩展负样本的数量:论文中提到,由于时间和计算资源的限制,负样本的数量被限制在15个。探索更多的负样本数量可能会进一步提升模型性能。
    2. 训练成本问题:随着负样本数量的增加,训练成本也会相应增加,尤其是在语言模型的背景下。研究如何平衡训练成本和模型性能是一个重要的问题。
    3. 深入理解Softmax排名损失:尽管S-DPO在推荐任务中显示出了优越的性能,但对于Softmax排名损失在语言模型中的工作原理仍需更深入的理论分析和实证研究。
    4. 跨领域的适用性:研究S-DPO在不同领域和不同类型的推荐系统中的适用性和性能表现,例如跨领域推荐、多模态推荐等。
    5. 优化算法:探索更有效的优化算法或学习率调度策略,以进一步提高S-DPO的训练效率和模型收敛速度。
    6. 模型泛化能力:研究S-DPO在面对新的用户或物品时的泛化能力,以及如何通过增量学习或持续学习来适应动态变化的数据分布。
    7. 解释性和透明度:提高模型的解释性,让用户和开发者更好地理解推荐背后的逻辑和决策过程。
    8. 鲁棒性和公平性:研究S-DPO在面对数据噪声、偏见或攻击时的鲁棒性,并探索如何提高推荐系统的公平性。
    9. 实际应用和部署:将S-DPO应用于实际的推荐系统场景,并研究其在现实世界中的部署和性能表现。
    10. 与其他方法的集成:探索将S-DPO与其他推荐系统技术(如强化学习、图神经网络等)结合的可能性,以实现更全面的推荐效果。

    这些潜在的研究方向可以帮助研究者们更深入地理解S-DPO方法,并推动基于语言模型的推荐系统技术的发展。

    Q: 总结一下论文的主要内容

    A: 这篇论文的主要内容包括以下几个方面:

    1. 问题识别:论文指出了现有基于语言模型(LM-based)推荐系统在个性化排名任务中的性能受限问题,主要原因是未充分利用用户偏好数据,以及缺乏对负面项(用户不偏好的项目)的考虑。
    2. S-DPO方法提出:为了解决上述问题,论文提出了Softmax Direct Preference Optimization(S-DPO)方法,这是一种新的损失函数,通过结合多个负面样本来优化语言模型,使其能够更好地区分用户偏好的项目和不偏好的项目。
    3. 理论联系:论文在理论上将S-DPO与softmax损失和负采样损失联系起来,证明了S-DPO在推荐任务中的有效性,并强调了多个负面样本的重要性。
    4. 梯度分析:论文对S-DPO的梯度进行了分析,证明了其在优化过程中能够提供更有效的排名梯度,并且能够缓解DPO训练中的不稳定性。
    5. 实验验证:通过在三个真实世界数据集(Movielens、Goodreads和LastFM)上的广泛实验,论文证明了S-DPO在有效建模用户偏好和提升推荐性能方面的优越性,同时解决了DPO的数据可能性下降问题。
    6. 消融研究:论文通过消融研究探讨了S-DPO中多个负面样本和显式排名优化的重要性,以及β值对模型性能的影响。
    7. 代码开源:为了促进研究和进一步的开发,论文的代码已经在GitHub上公开。
    8. 未来工作:论文提出了一些潜在的研究方向,包括扩展负样本的数量、深入理解Softmax排名损失、跨领域的适用性等。

    总的来说,这篇论文通过提出S-DPO方法,有效地解决了基于语言模型的推荐系统在个性化排名任务中的性能受限问题,并在理论和实验上都证明了其有效性。同时,论文还提出了一些未来可能的研究方向,为推荐系统领域的进一步研究提供了思路。


  • 理解越狱成功:大型语言模型中潜在空间动态的研究

    在大规模生成式AI模型(Large Language Models, LLMs)越来越普及的今天,确保这些模型输出的安全性成为了一个重要问题。尽管模型提供者采用了强化学习(Reinforcement Learning from Human Feedback, RLHF)和安全过滤等方法来防止模型生成有害内容,但仍有一些方法可以绕过这些安全措施,导致模型输出不当内容。这些方法被称为“越狱”(jailbreaks)。本文旨在深入理解不同类型的越狱方法是如何工作的,并探讨可能的对策。

    研究方法

    数据与模型

    本研究聚焦于Vicuna 13B v1.5模型,并使用了一组包含24种越狱类型和352个有害提示的数据集。

    测量越狱成功

    越狱成功率(Attack Success Rate, ASR)是通过Llama Guard 2 8B和Llama 3 8B模型的判断以及人工检查来计算的。

    激活模式分析

    研究使用主成分分析(PCA)来分析模型不同层次中不同越狱类型的激活模式,以识别相似行为的簇。

    越狱向量的相似性与可转移性

    通过计算越狱提示和非越狱提示之间激活的平均差异,提取每种越狱类型的越狱向量。使用余弦相似度来评估这些向量之间的相似性,并测试这些向量在其他越狱类型中的转移性,即使用它们来引导模型远离生成有害输出。

    有害性抑制分析

    研究探讨越狱是否通过减少模型对提示有害性的感知来成功。通过分析模型在越狱提示上的激活与预定义的“有害性向量”之间的余弦相似度来实现这一点。

    关键发现

    激活聚类

    越狱激活根据其语义攻击类型聚类,表明存在共享的内部机制。

    越狱向量的相似性

    不同类别的越狱向量显示出显著的余弦相似性,表明这些向量可以在不同的越狱类型之间进行交叉缓解。

    越狱向量的可转移性

    使用一种越狱类型的越狱向量可以降低其他越狱类型的成功率,即使这些越狱类型在语义上不相似。

    有害性抑制

    成功的越狱,特别是涉及样式操纵和人格采用的越狱,有效地减少了模型对提示有害性的感知。

    启示

    开发稳健的对策

    研究结果表明,通过针对成功攻击的共享机制,可以开发出可推广的越狱对策。

    对越狱动态的机制理解

    本研究提供了关于越狱如何利用LLMs内部工作原理的宝贵见解,为更有效的对齐策略铺平了道路。

    限制

    • 本研究仅聚焦于单一LLM(Vicuna 13B v1.5),限制了发现的普遍性。
    • 研究主要考察了一组特定的越狱类型,可能忽略了其他成功的攻击向量。

    结论

    本文揭示了LLMs中越狱成功的潜在空间动态。研究结果强调了通过利用不同越狱类型的共享机制来开发稳健对策的潜力。需要进一步研究以探索这些发现对各种LLM架构和攻击策略的普遍性。

    参考文献

    1. Achiam, J., et al. (2023). GPT-4 technical report. arXiv preprint arXiv:2303.08774.
    2. Bai, Y., et al. (2022a). Training a helpful and harmless assistant with reinforcement learning from human feedback. arXiv preprint arXiv:2204.05862.
    3. Chao, P., et al. (2023). Jailbreaking black box large language models in twenty queries. arXiv preprint arXiv:2310.08419.
    4. Lee, A., et al. (2024). A mechanistic understanding of alignment algorithms: A case study on DPO and toxicity. arXiv preprint arXiv:2401.01967.
    5. Wei, A., et al. (2024). Jailbroken: How does LLM safety training fail? Advances in Neural Information Processing Systems, 36.
人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 1 | UV: 1
Last updated: 2025-07-07 16:29:41
沪ICP备2024052574号-1