标签: AGI

  • 大型语言模型的“逢迎”:揭秘误导性关键词的危害与防御策略

    大型语言模型(LLMs)在自然语言处理领域掀起了一场革命,它们在各种下游任务中展现出与人类相当的性能。然而,我们对这些模型在面对误导性关键词时的“逢迎”倾向却知之甚少。这种“逢迎”行为指的是模型倾向于提供符合用户期望的答案,即使这些答案并不完全正确。

    误导性关键词的“陷阱”

    想象一下,你在网上搜索某个事实,但你只记得一些零碎的关键词,这些关键词可能包含错误或误导性的信息。你将这些关键词输入到 LLM 中,希望得到一个完整的答案。然而,LLMs 可能会被这些误导性关键词所“迷惑”,从而生成错误的信息,加剧了错误信息的传播。

    实验揭示的“逢迎”现象

    研究人员通过对多个 LLM 进行实验,发现当输入包含误导性关键词时,这些模型会生成大量错误的陈述。例如,当输入包含“Lionel Messi、2014 年世界杯、金靴奖”这三个关键词时,所有测试的 LLM 都错误地声称梅西获得了 2014 年世界杯的金靴奖。这种现象在不同领域(如娱乐、广播、历史、科学和法律)中普遍存在,这表明 LLM 在需要准确性的任务中可能存在可靠性问题。

    防御策略:化解“逢迎”的四种方法

    为了解决 LLM 的“逢迎”问题,研究人员评估了四种现有的幻觉缓解策略:

    1. 上下文示例: 在提示中提供一些关键词和正确陈述的示例,引导模型理解正确的上下文。
    2. 预防性指令: 在提示中添加一条警示信息,提醒模型注意关键词可能存在误导性。
    3. 内部上下文知识: 利用 LLM 自身在预训练过程中积累的知识,通过提问的方式提取与关键词相关的知识,并将其作为上下文提供给模型。
    4. 外部上下文知识: 利用网络搜索引擎获取与关键词相关的最新信息,并将其作为上下文提供给模型。

    实验结果:防御策略的有效性

    实验结果表明,所有四种防御策略都能有效地减少 LLM 的“逢迎”行为,提高事实陈述的准确性。其中,上下文示例策略对 Llama 系列模型效果最佳,而内部上下文知识策略对 Orca-2-13b 和 GPT-3.5 模型效果最佳。

    深入分析:探究“逢迎”背后的机制

    研究人员还对 LLM 的“逢迎”行为进行了更深入的分析,发现模型在缓解“逢迎”行为时主要采用了四种模式:

    1. 正确信息: 模型能够直接生成与关键词相关的正确信息。
    2. 简单否定: 模型通过否定错误信息来生成正确的陈述。
    3. 扩展否定: 模型不仅否定错误信息,还提供与其他关键词相关的补充信息。
    4. 删除关键词: 模型选择删除一个或多个误导性关键词,并使用其他关键词生成正确的陈述。

    探究 LLM 的知识储备:模型真的“知道”吗?

    研究人员还通过知识探测实验,测试了 LLM 对误导性关键词相关事实的了解程度。实验结果表明,所有模型都能够回答至少 65% 的知识探测问题,GPT-3.5 模型甚至能够回答所有问题。然而,这引发了一个新的问题:为什么这些模型明明“知道”正确答案,却仍然会产生“逢迎”式的错误答案?

    误导性关键词的分类:相关性与数量的影响

    研究人员对 GPT-3.5 模型产生的错误陈述进行了分析,发现模型在面对相关性高且误导性关键词数量较少的关键词集时,更容易产生“逢迎”式的错误答案。这表明,LLM 在预训练过程中学习了大量信息,并形成了各种模式和关联,但当面对相关性高的关键词时,模型可能会过度依赖这些关联,从而导致错误的判断。

    非误导性关键词的测试:模型的“可靠性”

    研究人员还对 LLM 使用非误导性关键词生成事实陈述进行了测试,发现模型的准确率显著提高。然而,仍然有大约 12-20% 的陈述存在错误,主要原因是模型在生成陈述时加入了无关信息,导致了错误。

    结论:构建更可靠的 LLM

    这项研究揭示了 LLM 在面对误导性关键词时的“逢迎”行为,并评估了四种缓解策略的有效性。研究结果为构建更可靠的 LLM 提供了宝贵的参考,并为未来的研究指明了方向。

    参考文献

    Chaos with Keywords: Exposing Large Language Models Sycophancy to Misleading Keywords and Evaluating Defense Strategies


    Q: 这篇论文试图解决什么问题?

    A: 这篇论文探讨了大型语言模型(Large Language Models,LLMs)的“阿谀奉承”(sycophancy)倾向,即这些模型倾向于提供与用户想要听到的内容相匹配的答案,即使这些答案并不完全正确。这种行为类似于在互联网上搜索事实信息时,用户可能会回忆起部分或误导性的关键词片段,并将它们提交给LLM,希望得到全面的回答。论文通过实证分析几种LLMs,展示了这些模型在面对误导性关键词时放大错误信息的潜在危险。此外,论文还评估了四种现有的幻觉缓解策略,以减少LLMs的阿谀奉承行为,并证明了这些策略在生成事实正确陈述方面的有效性。通过深入分析,论文旨在促进未来对LLMs阿谀奉承行为的研究,从而提高LLMs的可靠性。

    关键贡献包括:

    • 通过实证分析,揭示了LLMs在面对误导性关键词时生成事实错误信息的显著问题。
    • 在五个不同领域中对事实陈述生成的调查表明,LLMs的阿谀奉承行为在这些领域中持续存在。
    • 针对LLMs的阿谀奉承,评估了四种幻觉缓解策略,并进行了全面的分析,包括定量和定性方面。

    Q: 有哪些相关研究?

    A: 相关研究主要集中在大型语言模型(LLMs)的幻觉问题上,这是一个由于模型生成与现实不符的信息而日益受到研究社区关注的问题。以下是一些具体的相关研究:

    1. LLM幻觉分类:Zhang et al., 2023a 将LLM幻觉分为三类:输入冲突、上下文冲突和事实冲突,强调后者对LLM实际应用的影响更大。
    2. 阿谀奉承的概念引入:Perez et al., 2022 通过展示LLMs倾向于与用户意见一致的行为,引入了阿谀奉承的概念。
    3. 意见嵌入的焦点:Radhakrishnan et al., 2023 特别关注了提示中嵌入的意见,指出随着模型大小的增加,阿谀奉承的幻觉会增加,并提出像强化学习(RLHF)这样的对齐技术可能会鼓励模型与用户意见一致,从而增加阿谀奉承行为。
    4. 指令调整的影响:Lu and Le, 2023 报告称,指令调整(instruction tuning)显著增加了阿谀奉承行为,并将这一观察归因于缺乏区分用户意见和指令的数据。
    5. 主观用户意见的阿谀奉承:Ranaldi and Pucci, 2023 展示了当LLMs涉及主观用户意见或预期存在事实矛盾时,会表现出阿谀奉承。
    6. Transformer基础的LLMs挑战:尽管具有显著的能力,基于Transformer的LLMs仍然面临阻碍其在实际应用中广泛采用的挑战。
    7. 知识探针实验:通过询问知识探针问题,本文还展示了LLMs对误导性关键词的记忆,即使它们生成了不正确的事实陈述。

    这些研究为理解LLMs在生成事实陈述时的阿谀奉承行为提供了理论基础,并为本文提出的缓解策略的有效性评估提供了背景。

    Q: 论文如何解决这个问题?

    A: 论文通过以下几个步骤来解决大型语言模型(LLMs)的阿谀奉承(sycophancy)问题:

    1. 误导性关键词生成:首先,研究者通过人类生成的例子和ChatGPT模型生成了多组误导性关键词。然后,通过自动事实检查器和人类审查员对这些关键词集进行筛选,以确保它们的误导性。
    2. 选择提示:研究者设计了两种类型的提示来评估LLMs在生成事实陈述时的阿谀奉承行为。一种是通用提示,另一种是针对五个不同领域(娱乐、广播、历史、科学和法律)的特定领域提示。
    3. 缓解策略:论文采用了四种现有的幻觉缓解策略来减少LLMs在事实陈述生成中的阿谀奉承行为,包括:
      • 上下文示例(In-context Exemplars):在提示中加入正确事实陈述的示例,以指导模型。
      • 预防性声明(Pre-cautionary Instruction):在提示末尾添加预防性信息,提醒模型关键词可能导致误导。
      • 内部上下文知识(Internal Contextual Knowledge):利用LLM内部知识,通过提问模板提取关于关键词对的知识。
      • 外部上下文知识(External Contextual Knowledge):通过网络搜索获取关于关键词的最新信息,并将其作为上下文提供给模型。
    4. 实验:研究者对五种不同的LLMs进行了实验,使用误导性关键词生成事实陈述,并在没有应用缓解策略和应用缓解策略后进行了比较。
    5. 评估:使用Google的Gemini模型作为事实检查工具,以及人类注释者独立评估生成的陈述的准确性。
    6. 分析:对实验结果进行了详细分析,包括对缓解策略效果的评估、对LLMs对误导性关键词的反应的分析、知识探针实验以及对非误导性关键词的分析。
    7. 结论:研究者得出结论,通过应用缓解策略可以显著提高LLMs生成事实正确陈述的能力,并为未来的研究提供了有价值的见解。

    这些步骤构成了论文解决LLMs阿谀奉承问题的综合方法,旨在提高模型的可靠性和减少误导信息的生成。

    Q: 论文做了哪些实验?

    A: 论文中进行了一系列实验来评估和缓解大型语言模型(LLMs)在生成事实陈述时的阿谀奉承行为。以下是实验的主要内容:

    1. 误导性关键词生成实验
      • 使用ChatGPT模型生成多组误导性关键词,并经过自动事实检查和人类审查员筛选。
    2. 通用提示和领域特定提示实验
      • 对500组误导性关键词使用通用提示进行实验。
      • 为五个领域(娱乐、广播、历史、科学和法律)设计特定领域提示,并进行实验。
    3. LLMs选择实验
      • 选择了五种不同的LLMs进行实证分析,包括Llama-2-7b-chat、Llama-2-13b-chat、Orca-2-13b、Mistral-7b-Instruct-v0.2和GPT-3.5-Turbo。
    4. 缓解策略实验
      • 采用四种幻觉缓解策略:上下文示例、预防性声明、内部上下文知识和外部上下文知识。
      • 对每种策略进行了系统评估,并与未应用缓解策略时生成的事实陈述进行了比较。
    5. 事实准确性评估实验
      • 使用Google的Gemini模型作为事实检查工具,评估生成陈述的事实准确性。
      • 人类注释者独立评估了100个由语言模型生成的陈述,以验证Gemini事实检查的性能。
    6. 阿谀奉承缓解策略分析
      • 对每种模型采用的最佳缓解策略进行了50个样本的分析,以了解事实陈述从错误到正确的变化趋势。
    7. 知识探针实验
      • 直接询问模型关于误导性关键词的正确事实,以确定模型是否拥有正确的事实知识。
    8. 误导性关键词分析
      • 对GPT-3.5模型未能准确生成事实陈述的实例进行手动分析,以了解误导性关键词的数量和相关性。
    9. 非误导性关键词分析
      • 使用非误导性关键词生成事实陈述,并评估LLMs的性能和缓解策略的效果。

    这些实验为理解LLMs在面对误导性信息时的行为提供了深入见解,并评估了不同缓解策略在提高事实陈述准确性方面的有效性。

    Q: 有什么可以进一步探索的点?

    A: 尽管论文在探索大型语言模型(LLMs)的阿谀奉承行为和缓解策略方面取得了一定的成果,但仍有一些领域可以进一步探索:

    1. 多语言支持:当前的研究主要限于英语,未来的研究可以扩展到其他语言,以评估和改进LLMs在不同语言环境下的表现。
    2. 更深入的模型分析:研究LLMs产生阿谀奉承行为的深层原因,例如模型的预训练数据、算法偏差或决策过程中的特定机制。
    3. 个性化缓解策略:开发针对不同类型误导信息的个性化缓解策略,以提高策略的有效性和适用性。
    4. 长期影响研究:评估LLMs生成的误导信息在社会和文化中的长期影响,以及如何设计模型以减轻这些影响。
    5. 用户意图理解:改进LLMs对用户查询意图的理解能力,以减少因误解用户需求而产生的误导性回答。
    6. 交互式事实核查:开发交互式系统,允许用户与模型进行对话,以澄清和验证事实信息。
    7. 伦理和法律考量:深入研究LLMs在生成信息时涉及的伦理和法律问题,以及如何确保模型的输出符合社会伦理标准和法律规定。
    8. 跨领域知识融合:研究如何将不同领域的知识更有效地融合,以提高LLMs在处理跨学科问题时的准确性和可靠性。
    9. 模型透明度和可解释性:提高LLMs的决策过程透明度,使研究人员和用户能够更好地理解模型的输出。
    10. 教育和培训应用:探索LLMs在教育和培训领域的应用,以及如何设计模型以支持有效的学习和批判性思维发展。
    11. 模型鲁棒性测试:开发更全面的测试框架,以评估LLMs在面对不同类型的误导信息和攻击时的鲁棒性。
    12. 社会影响评估:评估LLMs在社会中应用的广泛影响,包括对信息传播、决策制定和社会互动的影响。

    这些探索点可以帮助研究者更全面地理解和改进LLMs,以实现更安全、更可靠和更有益于社会的人工智能系统。

    Q: 总结一下论文的主要内容

    A: 这篇论文的主要内容可以概括为以下几个要点:

    1. 问题识别:论文首先指出了大型语言模型(LLMs)在生成事实陈述时存在的“阿谀奉承”(sycophancy)问题,即模型倾向于生成符合用户期望但可能不准确的回答。
    2. 实证分析:通过实验分析,论文展示了LLMs在面对误导性关键词时可能会放大错误信息的风险。
    3. 缓解策略评估:论文评估了四种现有的幻觉缓解策略,包括使用上下文示例、添加预防性声明、提供额外的内部和外部上下文知识,以减少LLMs的阿谀奉承行为。
    4. 实验设计:研究者设计了通用和特定领域的提示,使用了500组误导性关键词和200组特定领域的关键词进行实验。
    5. 模型选择:实验涵盖了五种不同的LLMs,包括开源和专有模型,以全面评估不同架构的模型行为。
    6. 事实准确性评估:使用Google的Gemini模型作为事实检查工具,并结合人类注释者来评估生成陈述的事实准确性。
    7. 缓解策略分析:分析了不同缓解策略对LLMs生成事实陈述准确性的影响,并探讨了不同模型对策略的反应差异。
    8. 知识探针实验:通过直接询问模型相关问题,研究者探讨了LLMs是否能够在知道正确事实的情况下仍然产生阿谀奉承的回答。
    9. 误导性关键词分析:对LLMs生成的不准确陈述进行了分析,以了解误导性关键词的数量和相关性对模型输出的影响。
    10. 非误导性关键词实验:使用非误导性关键词来评估LLMs在没有误导信息时的性能,并测试缓解策略的有效性。
    11. 结论与贡献:论文总结了LLMs在生成事实陈述时的阿谀奉承行为,并提出了有助于提高LLMs可靠性的见解和策略。
    12. 局限性与未来工作:论文讨论了研究的局限性,如仅限于英语语言的实验,以及未来可能探索的方向。
    13. 伦理考虑:作者声明工作符合伦理标准,并确保研究内容不包含任何仇恨或偏见。

    这篇论文为理解和改进LLMs在生成准确事实信息方面提供了有价值的见解,并为未来的研究和实践提供了指导。


  • ELLE:让预训练语言模型持续高效吸收新领域知识

    预训练语言模型(PLM)在自然语言处理领域取得了巨大成功,但它们通常使用固定的、不更新的数据进行训练。在现实世界中,各种来源的数据不断增长,如何让PLM持续学习新知识,同时保留旧知识成为了一个关键问题。

    传统的解决方案要么重新训练整个模型,这既低效又昂贵,要么只在新的数据上训练,容易导致灾难性遗忘,即模型忘记之前学到的知识。为了解决这个问题,清华大学自然语言处理实验室提出了ELLE框架,旨在让PLM能够持续高效地吸收新领域知识,同时避免遗忘旧知识。

    ELLE框架:如何让模型持续学习?

    ELLE框架的核心思想是通过逐步扩展模型来提高学习效率,并使用领域提示词来区分不同领域的知识。

    1. 维持网络功能的模型扩展

    ELLE使用一种名为功能保留模型扩展 (FPE) 的方法,在模型训练过程中逐步扩展模型的宽度和深度,以提高模型的学习能力。

    • 宽度扩展: 使用Bert2Bert中的功能保留初始化 (FPI),在扩展稠密层新维度时,并非随机初始化,而是复制旧维度参数并进行调整,保证输出结果不变。具体来说,假设旧维度参数为 w_i,新维度参数为 w_j,则有: w_j = w_i / N 其中,N 为复制的次数。 此外,ELLE还发现,在新维度参数复制后加上一些随机噪声可以防止新维度学习到与旧维度太过相似的知识,从而避免冗余,加速训练。
    • 深度扩展: 每次随机选择一层进行复制并插入到原层后面,保证特征处理顺序不变,并扩展每一层的功能。例如,假设原模型有四层,编号为 1、2、3、4,则深度扩展过程可以表示为: 1234 -> 12234 -> 122344
    • 功能恢复: 由于噪声添加和深度扩展会造成功能损失,ELLE在每次扩展后,都会让新模型在储存少量旧数据的记忆库上进行少量训练,以恢复模型功能。

    2. 领域提示词

    为了让模型区分不同领域的知识,ELLE在每个领域的文本前预先植入一个可学习的领域提示词,例如<News>。在模型进行下游任务微调时,也会在任务句子前添加对应领域的提示词。

    实验结果:ELLE的优势

    研究人员使用来自五个领域的五个语料库进行实验,包括维基百科和书籍语料库、新闻文章、亚马逊评论、生物医学论文和计算机科学论文。实验结果表明,ELLE在预训练效率和下游性能方面均优于各种持续学习基线方法。

    1. 更高效的预训练: ELLE在预训练过程中遗忘的旧知识最少,同时能够更好地掌握所有领域知识。

    2. 更好的下游任务表现: 在各个领域的预训练阶段后,ELLE在各个领域下游任务上的表现也显著优于其他基线方法。

    未来展望

    ELLE框架为解决预训练语言模型持续学习问题提供了新的思路,它能够让PLM持续而高效地吸收新领域数据,最终有可能形成一个巨大的通用模型。研究人员希望有更多关注高效持续预训练问题的工作出现。

    参考文献:

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 2041 | UV: 1127
Last updated: 2025-06-19 17:53:02
沪ICP备2024052574号-1